WO2022097981A1 - 카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법 - Google Patents

카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법 Download PDF

Info

Publication number
WO2022097981A1
WO2022097981A1 PCT/KR2021/015069 KR2021015069W WO2022097981A1 WO 2022097981 A1 WO2022097981 A1 WO 2022097981A1 KR 2021015069 W KR2021015069 W KR 2021015069W WO 2022097981 A1 WO2022097981 A1 WO 2022097981A1
Authority
WO
WIPO (PCT)
Prior art keywords
housing
electronic device
camera
module
processor
Prior art date
Application number
PCT/KR2021/015069
Other languages
English (en)
French (fr)
Inventor
지영민
김진우
김영성
곽명훈
김래태
허창룡
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210024915A external-priority patent/KR20220061811A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP21889446.7A priority Critical patent/EP4184284A4/en
Publication of WO2022097981A1 publication Critical patent/WO2022097981A1/ko
Priority to US17/939,552 priority patent/US20230007149A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0235Slidable or telescopic telephones, i.e. with a relative translation movement of the body parts; Telephones using a combination of translation and other relative motions of the body parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0241Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present disclosure relates to a method of changing a structure of a camera module, and more particularly, to a method of changing a structure of a camera module according to a change in the structure of an electronic device.
  • Camera modules having a plurality of angles of view are disposed in the electronic device, so that users can acquire images of various angles of view.
  • the structure of the camera module does not change even if the structure of the electronic device is changed, it may be difficult to change the focal length or optical magnification.
  • the lens of the camera module is placed in a space inside the module, it is difficult to move, so even if the size of the electronic device increases, it is still difficult to change the focal length or optical magnification when the size of the camera module does not change.
  • the size of the electronic device increases as the housing of the electronic device moves, and even if the display area shown to the outside is expanded, the space generated by the expansion is structurally used by the camera module Failure to do so may result in inefficient use of space.
  • the camera module of the present disclosure may be respectively coupled to housings of the electronic device, and as the structure of the electronic device changes, the structure of the camera module may also change.
  • the electronic device includes a first housing, a second housing connected to the first housing so as to be movable with respect to the first housing, the first housing, and the second housing.
  • a flexible display that is disposed on the housing, the structure of which can be changed according to the movement of the second housing, a camera module that can set an optical magnification, the camera module is a first housing coupled to the first housing and arranged along a first optical axis a first camera holder including a first lens module and a second camera holder coupled to the second housing and including at least a second lens module disposed along the first optical axis, wherein the second camera holder includes the second camera holder 2 a processor movable on the first optical axis with respect to the first camera holder according to the movement of the housing, the processor electrically connected to the flexible display and the camera module, wherein the processor identifies movement of the second housing, , the identified second housing and an arrangement state of lens modules satisfying the optical magnification may be identified, and
  • the electronic device includes a first housing, a second housing connected to the first housing so as to be movable with respect to the first housing, the first housing, and the second housing.
  • a flexible display that is disposed on a housing and capable of changing the size of an exposed area on the front side of the electronic device according to movement of the second housing, a camera module to which an optical magnification is set, and the camera module are coupled to the first housing and coupled to the first housing
  • a first camera holder including a first lens module disposed along an optical axis, and a second camera holder coupled to the second housing and comprising at least a second lens module disposed along the first optical axis, the second camera holder comprising:
  • the second camera holder is movable on the first optical axis with respect to the first camera holder according to the movement of the second housing, and includes a processor electrically connected to the flexible display and the camera module, the processor comprising: Identify the size of the exposure area of the flexible display, identify a first position
  • the camera module included in the electronic device of the present disclosure may utilize an existing unutilized space by changing the structure of the camera module as the structure of the electronic device changes, and the electronic device may have an adaptive structure.
  • the length of the camera module may also increase, and accordingly, the range of movement of lenses disposed in the camera module may be wider.
  • the electronic device of the present disclosure may adjust the positions of lenses corresponding to the changed length of the camera module according to optical magnification and focus.
  • FIG. 1 is a diagram illustrating a front surface and a rear surface of an electronic device, according to an exemplary embodiment.
  • FIG. 2 is a diagram illustrating a change in the size of an exposed area through which the display is externally viewed as the display of the electronic device expands, according to an exemplary embodiment.
  • FIG. 3 is a diagram schematically illustrating a structure of an electronic device including a camera module, according to an embodiment.
  • FIG. 4 is a diagram conceptually illustrating a structure of a camera module as a display of an electronic device is expanded, according to an embodiment.
  • FIG. 5 is a diagram specifically illustrating a front and rear structure of a camera module, according to an embodiment.
  • FIG. 6 is a diagram illustrating a side structure of a camera module, according to an embodiment.
  • FIG. 7 is a diagram illustrating a form in which a camera module is disposed in an electronic device, according to an embodiment.
  • FIG. 8 is a diagram illustrating a flow in which an electronic device identifies a change in an externally visible area of a display and changes an arrangement state of lenses corresponding to a changed structure of a camera module, according to an embodiment.
  • FIG. 9 is a diagram illustrating a change in an arrangement state of lenses in an electronic device, according to an embodiment.
  • FIG. 10 is a diagram illustrating a flow in which an electronic device identifies an optical magnification and a changed camera holder length and compares them with pre-stored data, according to an exemplary embodiment.
  • FIG. 11 is a view for explaining movement of a lens included in a camera module.
  • FIG. 12 is a diagram illustrating a state of changing a length of a camera holder and moving a lens included therein according to an extension of a camera module, according to an embodiment.
  • FIG. 13 is a diagram illustrating the principle of a piezoelectric actuator, which is one of methods for moving a holder included in a camera module, according to an embodiment.
  • FIG. 14 is a diagram illustrating a structural change of a camera module according to an embodiment.
  • 15 is a diagram specifically illustrating a structure related to a lens module and a carrier of a camera module, according to an embodiment.
  • 16 is a diagram illustrating a cross-section taken along line A-A' of a structure related to a lens module and a carrier of a camera module, according to an embodiment.
  • FIG. 17 is a diagram illustrating a state in which a carrier and a lens module move according to a structural change of a camera module, according to an embodiment.
  • FIG. 18 is a diagram illustrating movement of a lens module and a lens included in a camera module, according to an embodiment.
  • 19 is a diagram illustrating a state in which lens modules are moved according to optical magnification when the camera module is in a basic state, according to an embodiment.
  • 20 is a diagram illustrating a state in which a carrier and lens modules inside a camera module are moved according to an optical magnification when the camera module is in an extended state, according to an embodiment.
  • 21 is a diagram illustrating a state in which a carrier and/or lens modules are moved according to an optical magnification in response to a structural change of a camera module, according to an embodiment.
  • 22 is a diagram illustrating a flow of adjusting an arrangement state of lens modules according to whether an electronic device is in focus, according to an embodiment.
  • FIG. 23 is a diagram illustrating a state in which an electronic device adjusts an arrangement state of lenses, according to an embodiment.
  • 24 is a diagram schematically illustrating a structure of a camera module included in an electronic device, according to another exemplary embodiment.
  • 25 is a diagram illustrating a state in which carriers including a lens module move according to a structural change of a camera module, according to another embodiment.
  • 26 is a diagram illustrating a zoom-in/zoom-out operation related to a size change of an exposure area of a display of an electronic device, according to an embodiment.
  • FIG. 27 is a diagram illustrating a user interface for inducing zoom in/out related to a change in a size of an exposed area of a display of an electronic device, according to an embodiment.
  • FIG. 28 is a diagram illustrating a user interface in which a size of an exposure area of a display of an electronic device and an optical magnification are linked, according to an exemplary embodiment.
  • 29 is a diagram illustrating another example in which a camera module is disposed in an electronic device, according to an embodiment.
  • FIG. 30 is a block diagram of an electronic device in a network environment, according to an embodiment.
  • 31 is a block diagram illustrating a camera module according to an embodiment.
  • first component may be referred to as a second component, and similarly, a second component may be referred to as a first component within the disclosed scope.
  • a term such as “and/or” may include a plurality of related components or a combination of any one of a plurality of components. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • the electronic device may be a device including a touch panel, and may be a terminal, a portable terminal, a mobile terminal, a communication terminal, a portable communication terminal, or a display device.
  • the electronic device of the present disclosure may include a smartphone, a mobile phone, a navigation device, a game console, a TV, a head unit in a car, a notebook computer, a laptop computer, a tablet computer, a PMP, and a PDA.
  • the electronic device may be implemented as a pocket-sized portable communication terminal with a wireless communication function.
  • the electronic device may be a flexible device or a flexible display device.
  • the electronic device may communicate with an external electronic device such as a server or may perform a task through interworking with the external electronic device. For example, the electronic device may transmit an image captured using a camera and/or location information sensed by a sensor unit to a server through a network.
  • the network may be, but is not limited to, a mobile or cellular network, a local area network (LAN), a wireless local area network (WLAN), a wide area network (WAN), the Internet, or a small area network (SAN).
  • FIG. 1 is a diagram illustrating a front surface and a rear surface of an electronic device, according to an exemplary embodiment.
  • FIG. 1-1 may show the front surface of the electronic device 100 .
  • the area exposed to the outside of the display 110 may not be expanded.
  • the display 110 may be exposed on the front of the electronic device 100 .
  • the display 110 may be a flexible display and may be bent or folded.
  • the front camera 120 may be disposed on the front side of the electronic device 100 .
  • the front camera 120 may acquire an image in the front direction of the electronic device 100 .
  • the front camera 120 may be disposed between the display 110 of the electronic device 100 and the rear surface of the electronic device 100 .
  • At least a portion of the display 110 exposed to the front of the electronic device 100 may be disposed on the first housing 141 . In an embodiment, at least a portion of the display 110 may be disposed on the second housing 142 .
  • FIGS. 1-2 may show the rear surface of the electronic device.
  • the electronic device 100 may include a first housing 141 and a second housing 142 .
  • the first housing 141 may be a fixed housing
  • the second housing 142 may be connected or coupled to the first housing 141 to be movable with respect to the first housing 141 .
  • the display 110 may be disposed on the first housing 141 and the second housing 142 , and may be displayed outside of the electronic device 100 according to the movement of the second housing 142 .
  • the exposure area may be enlarged or reduced.
  • the second housing 142 may include a camera area 130 in which camera modules are disposed.
  • the first camera module 131 , the second camera module 132 , the third camera module 133 , or the fourth camera module 134 may be disposed in the camera area 130 .
  • the first camera module 131 may include an ultra-wide camera
  • the second camera module 132 may include a wide-angle camera
  • the third camera module 133 may include a telephoto camera.
  • the fourth camera module 134 may include an infrared light emitting unit and a time of flight (TOF) sensor as a depth camera.
  • TOF time of flight
  • images in the rear direction may be acquired through camera modules disposed in the camera area 130 on the rear side of the electronic device 100 .
  • FIG. 2 is a diagram illustrating a change in the size of an exposed area through which the display is externally viewed as the display of the electronic device expands, according to an exemplary embodiment.
  • the exposed area may mean an area (or a visually exposed area) in which the display 110 is viewed to the outside of the electronic device 100 .
  • the display 110 may be included in the electronic device 100 , and at least a portion of the display 110 may be viewed from the outside of the electronic device 100 as an exposed area.
  • FIG. 2-1 shows a state in which the display 110 of the electronic device 100 is expanded.
  • FIG. 2-1 shows a front view of the electronic device 100 .
  • the electronic device 100 may include a fixed first housing 141 and a second housing 142 movable with respect to the first housing 141 .
  • the area (or exposed area) in which the display 110 is externally visible may be changed (enlarged or reduced).
  • FIG. 2-2 shows a rear side of the electronic device 100 .
  • the camera area 130 may be included in the second housing 142 .
  • at least one camera module may be included in the camera area 130 .
  • At least one of the plurality of camera modules is It may be coupled to both the first housing 141 and the second housing 142 .
  • the third camera module 133 may be coupled to the first housing 141 and the second housing 142 , and according to the movement of the second housing 142 , at least the third camera module 133 . Some can move together.
  • At least one of the plurality of camera modules is It may be coupled to the first housing 141 or the second housing 142 .
  • the third camera module 133 is coupled to at least one of the first housing 141 and the second housing 142 , and based on the movement of the first housing 141 and the second housing 142 , , at least a portion of the third camera module 133 may be moved using a power device such as a motor.
  • the third camera module 133 is coupled to at least one of the first housing 141 and the second housing 142 , and the third camera module 133 moves based on the movement of the display 110 . It is connected to a configuration such as a multi-bar, so that at least a portion of the third camera module 133 may move according to the movement of the second housing 142 .
  • FIG. 3 is a diagram schematically illustrating a structure of an electronic device including a camera module, according to an embodiment.
  • the electronic device 100 may include a display 310 , a processor 320 , a camera module 330 , and/or a memory 340 .
  • the display 310 may correspond to the display 110 of FIG. 1
  • the camera module 330 includes the first camera module 131 , the second camera module 132 , and the third camera of FIG. 1 . It may correspond to at least one of the module 133 and the fourth camera module 134 .
  • At least a portion of the display 310 may be disposed on the front surface of the electronic device 100 .
  • at least a portion of the display 310 may be visually exposed on the front surface of the electronic device 100 , and the size of the exposed area (or exposed area) depends on the expansion of the display 310 according to the movement of the housing. may vary depending on The display 310 may move together with the movement of the housing (eg, the second housing 142 ).
  • the processor 320 may be electrically connected to the display 310 , the camera module 330 , or the memory 340 , and the display 310 , the camera module 330 , or the memory 340 . operations can be controlled.
  • the camera module 330 includes a plurality of camera modules (eg, the first camera module 131 , the second camera module 132 , the third camera module 133 , or the fourth camera module 134 ). )) may be included.
  • the first camera module 131 , the second camera module 132 , or the third camera module 133 includes a camera (eg, an ultra-wide-angle camera, a wide-angle camera, or a telephoto camera) each having a different angle of view.
  • the fourth camera module 134 may detect a distance between external objects of the electronic device 100 .
  • the above description of the camera modules is This is an example, and may not be limited thereto.
  • the memory 340 may store data corresponding to the optical magnification and/or the size of the exposure area of the display 310 .
  • data regarding the arrangement state of lenses corresponding to the size of the exposure area of the display 310 and/or the set optical magnification may be stored.
  • the electronic device 100 may further include a device extension sensing module 350 .
  • the device extension sensing module 350 may be configured to display an exposed area of the display 310 according to the movement of the housing (eg, the second housing 142 ) and/or the movement of the housing (eg, the second housing 142 ). change in size can be detected.
  • the electronic device 100 may detect a change in the exposed area of the display 310 using the device extension sensing module 350 under the control of the processor 320 .
  • the electronic device 100 may sense expansion or contraction of the exposed area of the display 310 through the device expansion sensing module 350 under the control of the processor 320 , and accordingly, the electronic device 100 ), data on the size of the exposure area of the display 310 exposed to the front side may be obtained.
  • the processor 320 of the electronic device 100 may sense the movement of the housing (eg, the second housing 142 ) using the device extension sensing module 350 .
  • the device extension sensing module 350 may operate in a magnetic force measurement method, an electrostatic method, an optical measurement method, a physical measurement method, or a variable resistance method.
  • the processor 320 may measure the moving distance of the display 310 by using a Hall sensor and a magnet to measure the magnetic force strength and direction according to the position and displacement of the magnetized metal. In an embodiment, the processor 320 may measure the moving distance of the display 310 by using one or more touch screen panels (TSPs) and a metal structure to sense a change in capacitance using an electrostatic method. In an embodiment, the processor 320 measures the movement distance of the display 310 in an optical measurement method that measures the amount of infrared reflected light or time difference according to movement displacement by using an infrared (IR) light emitting unit and an IR sensor or a TOF sensor. can also be measured.
  • IR infrared
  • the processor 320 may measure the moving distance of the display 310 by using a counter switch to measure the triggering number of the switch. In an embodiment, the processor 320 may measure the movement distance of the display 310 using a variable resistance method of measuring a change value of the variable resistance according to the movement displacement as ADC data. According to an embodiment, the moving distance of the display 310 is the distance that the second housing 142 of FIG. 1 moves with respect to the first housing 141 , or the distance that the second housing 142 moves to the first housing 141 . ) may mean a degree to which the size of the exposure area of the display 310 changes as it moves.
  • FIG. 4 is a diagram conceptually illustrating a structure of a camera module as a display of an electronic device is expanded, according to an embodiment.
  • FIG. 4-1 illustrates a structure in which the display of the electronic device 100 (eg, the display 110 of FIG. 1 and the display 310 of FIG. 3 ) is not expanded.
  • At least one camera module in a state in which the second housing 142 does not move with respect to the first housing 141 of the electronic device 100 , at least one camera module (for example, the size or length of the third camera module 133) may not be increased.
  • FIG. 4-2 shows a structure in which the display (eg, the display 110 and the display 310) of the electronic device 100 is expanded.
  • the order/position of the camera modules shown in FIGS. 4-1 to 4-2 is an example, and may not be limited thereto.
  • At least one camera module (eg, : The size or length of the third camera module 133) may also be increased.
  • the exposed area of the display (eg, the display 110 of FIG. 1 and the display 310 of FIG. 3 ) may be expanded. there is. As the exposed area of the display (eg, the display 110 of FIG. 1 and the display 310 of FIG. 3 ) is expanded, the display (eg, the display 110 of FIG. 1 , FIG. The area (or exposure area) of the display 310 of 3 may increase.
  • an area in which a display (eg, the display 110 of FIG. 1 and the display 310 of FIG. 3 ) is visible to the outside is reduced.
  • the display eg, the display 110 of FIG. 1 , the display 310 of FIG. 3
  • the display eg, the display 110 of FIG. 1 in front of the electronic device 100 is reduced.
  • the area of the display 310 of FIG. 3 may be reduced.
  • one end of at least one camera module (eg, the third camera module 133 ) among the camera modules included in the camera area 130 may be coupled to the first housing 141 , and the other end may be coupled to the first housing 141 . may be coupled to the second housing 142 .
  • FIG. 5 shows an embodiment of the front and rear structures of the camera module
  • FIG. 6 shows an embodiment of the side structure of the camera module.
  • FIG. 5 to 6 show camera modules (eg, the first camera module 131 , the second camera module 132 , the third camera module 133 , or the fourth camera module 134 ). )) of at least one camera module (eg, the third camera module 133).
  • the third camera module 133 may be a camera module including a telephoto camera, and below, the camera structure may be described using the third camera module 133 as an example. However, the description of the camera structure may be applied to the first camera module 131 or the second camera module 132 .
  • the size or length of the third The camera module 133 is shown as viewed from the front.
  • FIG. 5-2 shows a rear view of the camera module 133 whose size or length is increased as the exposure area of the display (eg, the display 110 and the display 310) is expanded. indicates
  • FIGS. 6-1 to 6-2 as the exposure area of the display (eg, the display 110 or the display 310) expands, the size or length of the camera module 133 is increased. is shown when viewed from the side.
  • the display eg, the display 110 or the display 310
  • the third camera module 133 includes the first camera holder 510 and the second camera holder 520 connected to the first camera holder 510 so as to be movable with respect to the first camera holder 510 .
  • at least a portion of the first camera holder 510 and at least a portion of the second camera holder 520 may be connected (or coupled), and the second camera holder 520 may be connected to the first camera holder 510 . It may be connected to the first camera holder 510 so as to be movable by a predetermined distance with respect to the .
  • the first camera holder 510 may be coupled to the first bracket 511 .
  • at least a portion of the first camera holder 510 may be coupled to at least a portion of the first bracket 511 , and the first bracket 511 surrounds at least a portion of the first camera holder 510 . It may be combined with the first camera holder 510 in a form.
  • the first bracket 511 may be coupled to the first housing 141 through the first coupling hole 512 .
  • the first bracket 511 may be screw-fastened to the first housing 141 through the first coupling hole 512 .
  • the second camera holder 520 may be coupled to the second bracket 521 .
  • at least a portion of the second camera holder 520 may be coupled to at least a portion of the second bracket 521 , and the second bracket 521 surrounds at least a portion of the second camera holder 520 . It may be combined with the second camera holder 520 in the form of.
  • the second bracket 521 may be coupled to the second housing 142 through the second coupling hole 523 .
  • the second bracket 521 may be screwed to the second housing 142 through the second coupling hole 523 .
  • the second bracket 521 may be provided with a buffering substrate 522 that can serve as a buffer when in contact with the first bracket 511 .
  • the cushioning substrate 522 may be disposed. there is.
  • At least one lens and a barrel may be disposed inside the first camera holder 510 and/or the second camera holder 520 .
  • lenses included in the first camera holder 510 and/or the second camera holder 520 may be designed to be movable within the camera holders.
  • first camera holder 510 and/or the second camera holder 520 is attached to the first bracket 511 and the second bracket 521 through an adhesive member (eg, a bond) to the adhesive region 540 . ) can be combined with an adhesive member (eg, a bond) to the adhesive region 540 .
  • FIG. 7 is a diagram illustrating a form in which a camera module is disposed in an electronic device, according to an embodiment.
  • FIG. 7-1 illustrates a state in which the third camera module 133 in an unextended state is coupled to the electronic device 100 .
  • the electronic device 100 may include a first housing 141 and a second housing 142 , and the second housing 142 may be movable with respect to the first housing 141 .
  • the first camera module 131 , the second camera module 132 , or the third camera module 133 including cameras having different angles of view may be disposed in the second housing 142 , a fourth camera module 134 for detecting the distance of the subject may be disposed.
  • the third camera module 133 may be coupled to the first housing 141 and the second housing 142 .
  • the first bracket 511 may be adhered or fixed to the first camera holder 510 of the third camera module 133 , and the first bracket 511 may be attached to the first housing 141 . It may be screwed through the coupling hole 512 .
  • the third camera module 133 may be coupled to a configuration such as a support structure included in the first housing 141 or the second housing 142 .
  • the second bracket 521 may be attached to or fixed to the second camera holder 520 of the third camera module 133 , and the second bracket 521 may have a second coupling hole 523 in the second housing 142 . ) can be screwed through.
  • the third camera module 133 is formed by coupling a bracket (eg, the first bracket 511 or the second bracket 521) and a housing (eg, the first housing 141, the second housing 142). , may be coupled or fixed to the first housing 141 and the second housing 142 .
  • the third camera module 133 is coupled to the first housing 141 or the second housing 142 using a screw, but is not limited thereto.
  • the third camera module 133 may be coupled to the first housing 141 or the second housing 142 through an adhesive member such as a double-sided tape or an adhesive.
  • the third camera module 133 may be coupled to the first housing 141 or the second housing 142 in a fitting manner through a structural design.
  • the third camera module 133 may be coupled to the first housing 141 or the second housing 142 through a connection member. In this case, the first coupling hole 512 or the second coupling hole 523 may be omitted.
  • the third camera module 133 is not expanded. , the size or length of the third camera module 133 may not be increased.
  • FIG. 7-2 shows a state in which the third camera module 133 in an extended state is coupled to the electronic device 100 as viewed from the rear.
  • the third camera module Reference numeral 133 denotes an expanded state, and the size or length of the third camera module 133 may also be increased.
  • the length formed by the first camera holder 510 and the second camera holder 520 may be increased.
  • first bracket 511 fixed to the third camera module 133 may be coupled to at least a portion of the first housing 141 through the first coupling hole 512, and the second bracket ( The 512 may be coupled to at least a portion of the second housing 142 through the second coupling hole 523 .
  • the second bracket 512 coupled to the second housing 142 may also be moved in a coupled state.
  • the first bracket 511 is fixed to the first housing 141 and the second bracket 512 is moved, so that the second camera holder 520 is the second bracket 512 with respect to the first camera holder 510 . You can move in the direction you are moving.
  • FIG. 7-3 shows a state in which the third camera module 133 in an extended state is coupled to the fastening hole 141-1 of the first housing 141 of the electronic device 100 at the rear side.
  • 7-4 shows a state in which the third camera module 133 in an expanded state is coupled to the fastening hole 141-1 of the first housing 141, the front side of the electronic device 100 It shows the appearance seen through perspective.
  • the first coupling hole 512 of the first bracket 511 of the third camera module 133 is screwed through the first coupling hole 141-1 formed in the first housing 141 by being screwed.
  • the first bracket 511 is screwed through the first coupling hole 512 and the first coupling hole 141-1, so that the first bracket 511 is attached to at least a portion of the first housing 141 . ) can be fixed.
  • FIG. 8 is a diagram illustrating a flow in which an electronic device identifies a change in an externally visible area of a display and changes an arrangement state of lenses corresponding to a changed structure of a camera module, according to an embodiment.
  • the electronic device may identify the size of an area shown outside of the display (eg, the display 310 of FIG. 3 ). .
  • the display 310 may also move.
  • the area (or exposed area) may be widened, and when at least a portion of the second housing 142 is moved (eg, inserted) in a direction in which the display 310 is reduced with respect to the first housing 141 , it is moved to the outside of the display 310 .
  • the visible area (or exposed area) may be reduced.
  • at least a portion of the second housing 142 is inserted into the first housing 141 , but at least a portion of the first housing 141 is inserted into the second housing 142 . It may be implemented in a structure that is
  • the electronic device 100 may identify the size of the area displayed outside the display 310 under the control of the processor 320 .
  • the processor 320 of the electronic device 100 may identify the size of the exposed area of the display 310 corresponding to the degree of expansion of the display 310 .
  • the size of the exposed area of the display 310 may be the size of the display 310 viewed from the front of the electronic device 100 .
  • the processor 320 of the electronic device 100 may identify that the size of the exposed area of the display 310 increases. In an embodiment, when at least a portion of the display 310 positioned outside the first housing 141 or the second housing 142 is moved into the first housing 141 or the second housing 142 . , the processor 320 of the electronic device 100 may identify that the size of the exposed area of the display 310 decreases.
  • the processor 320 of the electronic device 100 may check the size of the exposed area of the display 310 using the device extension sensing module 350 .
  • the electronic device eg, the electronic device 100 identifies an arrangement state of lenses that satisfy the detected size of the exposed area of the display 310 and the set optical magnification of the camera module.
  • the electronic device 100 may identify the optical magnification of the camera module 330 under the control of the processor 320 .
  • the optical magnification of the camera module 330 may be an optical magnification set by a user input.
  • the optical magnification of the camera module 330 may be changed according to a user input in a movement operation of the display 310 .
  • the optical magnification of the camera module 330 may be determined based on a movement distance of the camera module 330 disposed in the second housing 142 with respect to the first housing 141 . For example, as the moving distance of the camera module 330 disposed in the second housing 142 increases, the optical magnification may increase.
  • the moving distance of the camera module 330 may mean the degree of expansion of the camera module 330 .
  • the electronic device 100 determines, under the control of the processor 320 , an arrangement state of lenses that satisfy the identified size of the exposed area of the display 310 and/or the optical magnification of the camera module 330 . can be identified.
  • FIGS. 9-1 to 9-5 show an arrangement state of lenses satisfying a set optical magnification when the size of the exposure area of the display 310 is constant.
  • the first lens module 910 , the second lens module 920 , the third lens module 930 , the fourth lens module 940 and/or the image sensor 950 are arranged along the optical axis.
  • light incident on the electronic device 100 passes through the first lens module 910 , the second lens module 920 , the third lens module 930 , and the fourth lens module 940 to obtain an image. It may be incident on the sensor 950 .
  • the set optical magnification of the camera module 330 may be higher as it goes from FIGS. 9-1 to 9-5.
  • FIG. 9-2 may have a higher magnification than FIG. 9-1.
  • the electronic device 100 may identify an arrangement state of lenses that satisfy the optical magnification of the camera module 330 under the control of the processor 320 .
  • the processor 320 of the electronic device 100 may identify an arrangement state of lenses that satisfy the size of the exposure area of the display 310 and the optical magnification as shown in FIGS. 9-1 to 9-5. .
  • the arrangement state of lenses satisfying the size of the exposure area of the display 310 identified by the processor 320 of the electronic device 100 and the optical magnification is tabled in the memory 340 based on simulation. and may be stored.
  • the electronic device may move the lens modules to be in the identified arrangement state.
  • the processor 320 of the electronic device 100 may move the current lenses to be in the arrangement state of the lenses identified in operation 820 .
  • the arrangement and/or number of the first lens module 910 , the second lens module 920 , the third lens module 930 , the fourth lens module 940 and/or the image sensor 950 described above is of the description. This is an example for convenience, and may not be limited thereto.
  • the lens modules eg, the first lens module 910 , the second lens module 920 , the third lens module 930 , and the fourth lens module 940 ) may include at least one lens.
  • FIG. 10 is a diagram illustrating a flow of an electronic device identifying an optical magnification and a changed length of a camera holder, and comparing it with pre-stored data, according to an embodiment.
  • the description of the flowchart of FIG. 10 may be a more detailed description of the operation of the electronic device 100 corresponding to operations 810 to 820 of FIG. 8 .
  • the electronic device 100 may check the set optical magnification of the camera module 330 under the control of the processor 320 .
  • the electronic device 100 may check the optical magnification of the camera module 330 under the control of the processor 320 .
  • the optical magnification of the camera module 330 may be a magnification preset by the user or a magnification changed by the user while the electronic device 100 is in use.
  • the operation time is only an example and may not be limited thereto.
  • the electronic device 100 controls the length of the camera holder corresponding to the size of the exposure area of the display 310 (eg, the first camera holder 510 ) under the control of the processor 320 . and the total length formed by the second camera holder 520).
  • the second housing moves with respect to the first housing (eg, the first housing 141 ) under the control of the processor 320 .
  • the processor 320 may identify the size of the exposed area of the display 310 according to the movement of the display 310, and may also identify the extended length of the camera module (or camera holder) corresponding to the size of the exposed area. .
  • the above-described length of the camera module may be, for example, a total length formed by the first camera holder 510 and the second camera holder 520 .
  • the sensor included in the camera module may be used to identify the extended length of the camera module.
  • the electronic device 100 may compare the identified length of the camera holder and the set optical magnification under the control of the processor 320 with data regarding the arrangement state of the lenses stored therein.
  • the electronic device 100 may compare the identified data regarding the length of the camera holder and the optical magnification with the data regarding the arrangement state of the lenses under the control of the processor 320 .
  • the processor 320 compares the identified camera holder length and optical magnification with the stored data regarding the arrangement of lenses, thereby satisfying the identified camera holder length and the identified optical magnification. status can be identified.
  • the processor 320 of the electronic device 100 identifies an arrangement state of lenses that satisfy the identified length of the camera holder and the confirmed optical magnification, and in operation 830, the camera holder (eg, the first The lenses included in the first camera holder 510 and the second camera holder) may be moved to be in the identified arrangement state.
  • the lenses may be moved by a driving method such as, but not limited to, a voice coil motor (VCM) or a piezoelectric actuator.
  • a driving method such as, but not limited to, a voice coil motor (VCM) or a piezoelectric actuator.
  • VCM voice coil motor
  • piezoelectric actuator a piezoelectric actuator
  • FIG. 11 is a view for explaining a principle of moving a lens included in a camera module, according to an embodiment.
  • FIG. 11 shows a closed-loop method among VCM methods in moving lenses.
  • a magnet may be attached to a lens barrel, and a camera holder (eg, the first camera holder 510 in FIG. 5 , or a second camera holder in a position corresponding to the position of the magnet)
  • a coil may be disposed at 520 ).
  • the processor eg, the processor 320 of the electronic device (eg, the electronic device 100 ) may control the current flowing in the coil, and the position of the lens may be moved by the current flowing in the coil. there is.
  • the processor (eg, the processor 320 ) of the electronic device may identify the position of the lens through a hall sensor (hall IC sensor).
  • the processor (eg, the processor 320 ) of the electronic device eg, the electronic device 100 ) transmits the identified lens position to a driver IC to correct the lens position, thereby obtaining an optimized position of the lenses.
  • the electronic device determines whether focus is achieved using a processor (eg, the processor 320 ) or an ISP based on an image obtained from an image sensor. can judge When the focus is not precisely focused, the electronic device (eg, the electronic device 100 ) may request a lens movement from the driving circuit under the control of the processor (eg, the processor 320 ) or the ISP.
  • a processor eg, the processor 320
  • ISP ISP
  • the electronic device (eg, the electronic device 100 ) may move the lenses using one or more coils and Hall sensors.
  • the above-described movement method may be applied not only to movement of a lens, but also to movement of a lens module or a camera holder including a lens.
  • FIG. 12 is a diagram illustrating a state of changing a length of a camera holder and moving a lens included therein according to an extension of a camera module, according to an embodiment.
  • the camera module according to FIG. 12 may correspond to the camera module of FIGS. 5 to 6 (eg, the third camera module 133 of FIG. 1 ), for convenience of explanation in terms of movement of lenses. For this purpose, some components may be omitted.
  • movement of the lenses in the camera module of FIG. 12 may be controlled by a processor (eg, the processor 320 of FIG. 5 ).
  • the camera module according to FIG. 12 includes a first camera holder 1210 (eg, the first camera holder 510 of FIG. 5 ) and a second camera holder 1220 (eg, the second camera holder of FIG. 5 ).
  • a camera holder 520) may be included.
  • the first camera holder 1210 and the second camera holder 1220 may be movably connected (or coupled) to each other.
  • an image sensor 1211 may be disposed at one end of the first camera holder 1210 .
  • the image sensor 1211 obtains light that has passed through the incident lens module 1222 , the prism lens module 1221 , the first lens module 1230 , the second lens module 1243 , or the third lens module 1253 . can do.
  • the second lens module 1243 and/or the second magnet to which the first magnet 1242 is attached may be disposed at least.
  • the second lens module 1243 may be disposed in the second carrier 1240
  • the third lens module 1253 may be disposed in the third carrier 1250 .
  • the image sensor 1211 , the second lens module 1243 , and the third lens module 1253 may be disposed along the first optical axis.
  • the second lens module 1243 and the third lens module 1253 may move in the first optical axis direction.
  • the second lens module 1243 and the third lens module 1253 are first formed by a VCM method based on the driving units 1251 and 1241 formed of magnets 1252 and 1242, a coil, and a Hall sensor. It can move in the direction of the optical axis.
  • the driving units 1241 and 1251 may be disposed between a carrier (eg, the second carrier 1240 and the third carrier 1250 ) and the camera holders 1210 and 1220 .
  • the first driving unit 1251 may be disposed inside the first camera holder 1210 .
  • a second driving unit 1241 may be disposed inside the second camera holder 1220 .
  • the current flowing in the coil in the driving units 1241 and 1251 may affect the magnets 1242 and 1252 in the carrier (eg, the second carrier 1240 and the third carrier 1250 ).
  • the first lens module 1230 may be disposed on the second camera holder 1220 .
  • the first lens module 1230 may be disposed on the first optical axis.
  • the prism lens module 1221 may be disposed at one end of the second camera holder 1220 .
  • the prism lens module 1221 may be disposed adjacent to the first lens module 1230 on the first optical axis.
  • the prism lens module 1221 may be disposed adjacent to the incident lens module 1222 disposed in a hole through which external light may pass through the second camera holder 1220 .
  • the prism lens module 1221 and the incident lens module 1222 may be arranged on a second optical axis perpendicular to the first optical axis.
  • the prism lens module 1221 may be disposed at a point where the first optical axis and the second optical axis cross each other.
  • the prism lens module 1221 may diffract light incident along the second optical axis through the incident lens module 1222 in the direction of the first optical axis.
  • the prism lens module 1221 may include an optical image stabilization (OIS) function.
  • OIS optical image stabilization
  • the electronic device eg, the electronic device 100
  • the prism lens module 1221 may perform OIS under the control of the processor 320 .
  • an optical image stabilization (OIS) function of the prism lens module 1221 may be omitted.
  • the processor eg, the processor 320 of the electronic device (eg, the electronic device 100 ) may control the current flowing through the coils of the driving units 1241 and 1251 .
  • the processor eg, the processor 320
  • the processor may control the movement of the magnets 1242 and 1252 by controlling the current of the coil, and by moving the magnets 1242 and 1252 , the lens modules 1243 and 1253 also can move together.
  • the processor eg, the processor 320
  • the processor (eg, the processor 320 ) includes a lens module (eg, the second lens module 1243 , the third lens module 1253 ) in the carrier (eg, the second carrier 1240 , the third carrier 1250 ). can be moved through the VCM method.
  • the processor eg, the processor 320
  • moves the carrier eg, the third carrier 1430
  • the lens inside the carrier eg, the second carrier 1240, the third carrier 1250
  • Modules eg, the second lens module 1243 and the third lens module 1253
  • FIG. 13 is a diagram illustrating a principle of a piezoelectric actuator, which is one of methods for moving a lens included in a camera module, according to an embodiment.
  • FIG. 13 may be a diagram for explaining a method of moving lenses using an ultrasonic linear actuator (hereinafter, 'piezoelectric actuator').
  • 'piezoelectric actuator' an ultrasonic linear actuator
  • the piezoelectric actuator 1300 includes an elastic part 1310 including an elastic material, a piezoelectric ceramic 1320, or a shaft 1330. may include
  • the elastic part 1310 may have one surface and the other surface covered by the piezoelectric ceramic 1320 , and the shaft 1330 is coupled to the piezoelectric ceramic 1320 covering one surface of the elastic part 1310 . may have been
  • a contraction or expansion motion may occur in the piezoelectric ceramic 1320 according to the polarization direction and the applied electric field direction, and the piezoelectric actuator 1300 may vibrate.
  • the piezoelectric ceramic 1320 of the piezoelectric actuator 1300 contracts or expands, so that the shaft 1330 can move upward by d1 or downward by d2.
  • d1 and d2 are examples, and d1 and d2 may have the same value or different values.
  • the shaft 1330 of the piezoelectric actuator 1300 may move up and down by d1 and d2 while vibrating, and such vertical vibration may be repeated or controlled.
  • the shaft 1330 of the piezoelectric actuator 1300 may perform a forward operation and/or a reverse operation.
  • the forward operation of the shaft 1330 of the piezoelectric actuator 1300 may mean an operation of slowly moving the shaft 1330 forward and quickly returning the shaft 1330 to its original position.
  • the backward operation of the shaft 1330 of the piezoelectric actuator 1300 may refer to an operation of rapidly moving the shaft 1330 forward and slowly returning the shaft 1330 to its original position.
  • the processor eg, the processor 320 of the electronic device (eg, the electronic device 100 ) may control the electric field applied to the piezoelectric ceramic 1320 of the piezoelectric actuator 1300 , and the control Accordingly, the movement of the shaft 1330 may be controlled.
  • FIG. 14 is a diagram illustrating a structural change of a camera module according to an embodiment. Specifically, FIG. 14 may show a state in which the camera module of FIG. 12 is specifically implemented.
  • FIG. 14-1 shows a state before the third camera module 133 is expanded
  • FIG. 14-2 shows a state where the third camera module 133 is expanded.
  • the third camera module 133 of FIGS. 14-1 to 14-2 may correspond to the third camera module 133 of FIGS. 5 to 6 .
  • the first carrier 1410 , the second carrier 1420 , or the third carrier 1430 is disposed in the space formed by the first camera holder 510 and the second camera holder 520 .
  • the first carrier 1410 , the second carrier 1420 , or the third carrier 1430 may be disposed on the same optical axis.
  • the first carrier 1410 , the second carrier 1420 , and the third carrier 1430 may include a lens module including at least one lens.
  • the first carrier 1410 may be disposed in the second camera holder 520 .
  • the first carrier 1410 may be fixed in the second camera holder 520 .
  • the first piezoelectric actuator 1421 (eg, the piezoelectric actuator 1300 of FIG. 13 ) is disposed in at least a portion of the internal space formed by the first camera holder 510 and the second camera holder 520 .
  • the first piezoelectric actuator 1421 may be disposed adjacent to the side on which the first carrier 1410 is located.
  • the first piezoelectric actuator 1421 may be disposed in the first hole of the second carrier 1420 and the fourth hole penetrating the third carrier 1430 .
  • the shaft of the first piezoelectric actuator 1421 eg, the shaft 1330 of FIG. 13
  • the diameter of the fourth hole of the third lens module 1430 may be larger than the diameter of the first hole of the second carrier 1420 .
  • the diameter of the fourth hole of the third lens module 1430 may be larger than the diameter of the first hole of the second carrier 1420 .
  • the second lens module 1420 may move due to the vibration.
  • the second piezoelectric actuator 1431 may be disposed in at least a portion of an internal space formed by the first camera holder 510 and the second camera holder 520 .
  • the second piezoelectric actuator 1431 may be disposed adjacent to the side on which the third carrier 1430 is located.
  • the second piezoelectric actuator 1431 may be disposed in a second hole of the second carrier 1420 or a third hole penetrating the third carrier 1430 .
  • the shaft of the second piezoelectric actuator 1431 eg, the shaft 1330 of FIG. 13
  • the second hole of the second carrier 1420 may be larger than the third hole of the third carrier 1430 .
  • the diameter of the second hole of the second carrier 1420 may be larger than the diameter of the third hole of the third carrier 1430 . In this case, when the second piezoelectric actuator 1431 vibrates, the third carrier 1420 may move due to the vibration.
  • 15 is a diagram illustrating a structure of a lens module and a carrier of a camera module, according to an embodiment.
  • FIG. 15-1 shows a perspective view of a structure related to a lens module and a carrier (eg, the third carrier 1430 or the second carrier 1420 of FIG. 14), and FIG. 15-2 is a lens It shows an exploded perspective view of a structure related to a module and a carrier (eg, the third carrier 1430 or the second carrier 1420 of FIG. 14 ).
  • the first carrier 1430 - 1 and the second carrier 1430 - 2 may form an outer circumference while surrounding the lens module 1432 .
  • the first carrier 1430 - 1 may form an upper periphery while enclosing the lens module 1432
  • the second carrier 1430 - 2 may form a lower periphery while enclosing the lens module 1432 . can do.
  • the holes 1430-3-1 and 1430-3 for arranging the piezoelectric actuators are disposed in the second carrier 1430-2. -2) may be formed.
  • the lens module 1432 may be disposed inside the carriers 1430-1 and 1430-2. Magnets 1433 may be attached to both sides of the lens module 1432 .
  • the lens module 1432 may include at least one lens.
  • a ball 1434 for moving the lens module 1432 on the second carrier 1430 - 2 may be disposed between the lens module 1432 and the second carrier 1430 - 2 .
  • a PCB and a Hall sensor 1430-4, and/or a coil 1430-5 may be disposed outside the second carrier 1430-2.
  • the PCB and the Hall sensor 1430 - 4 may be arranged to surround at least a portion of the outer portion of the second carrier 1430 - 2 .
  • the coil 1430 - 5 may be connected to the PCB and the Hall sensor 1430 - 4 and may be disposed at a position corresponding to the position of the magnet 1433 .
  • the first carrier (1430-1) and / or the second carrier (1430-2) is the third carrier (1430-2) of FIG. 1430 ) or the second carrier 1420 .
  • the holes 1430-3-1 and 1430-3-2 formed in the second carrier 1430-2 are holes formed in the second carrier 1420 or the third carrier 1430 of FIG. 14 .
  • the hole 1430-3-1 may correspond to a first hole of the second carrier 1420
  • the hole 1430-3-2 may correspond to a second hole of the second carrier 1420 .
  • the hole 1430-3-1 may correspond to the fourth hole of the third carrier 1430
  • the hole 1430-3-2 may correspond to the third hole of the third carrier 1430 .
  • 16 is a diagram illustrating a cross-section taken along line A-A' of a structure related to a lens module and a carrier of a camera module, according to an embodiment.
  • the magnet 1433 and the coil 1430 - 5 may be disposed at positions corresponding to each other.
  • the ball 1434 may be disposed to contact both the second carrier 1430 - 2 and the lens module 1432 .
  • the holes 1430-3-1 and 1430- for arranging a piezoelectric actuator are disposed in the second carrier 1430-2. 3-2) may be formed.
  • the first piezoelectric actuator 1421 may be disposed in the hole 1430-3-1, and the second piezoelectric actuator 1431 may be disposed in the hole 1430-3-2.
  • the structures related to the lens module and the carrier described above with reference to FIGS. 15 to 16 may be applied to both the second carrier 1420 and the third carrier 1430 .
  • FIG. 17 is a diagram illustrating a state in which a carrier and a lens module move according to a structural change of a camera module, according to an embodiment.
  • FIG. 17 shows a carrier (eg, second carrier 1420, or third carrier 1430) by a piezoelectric actuator (eg, first piezoelectric actuator 1421, or second piezoelectric actuator 1431). )) represents the movement.
  • a carrier eg, second carrier 1420, or third carrier 1430
  • a piezoelectric actuator eg, first piezoelectric actuator 1421, or second piezoelectric actuator 1431.
  • the carrier eg, the second carrier 1420, the third carrier 1430
  • a piezoelectric actuator eg, the first piezoelectric actuator 1421, or the second piezoelectric actuator 1431.
  • lens modules included in the carrier eg, the second carrier 1420 and the third carrier 1430 may also move.
  • the distance that the second carrier 1420 or the third carrier 1430 can move is the second The length of the first camera holder 510 and/or the second camera holder 520 may be shorter than the extended state.
  • the second carrier 1420 or the third carrier 1430 hardly moves, Only the lens module (eg, the lens module 1432 of FIG. 15 ) included in the second carrier 1420 or the third carrier 1430 includes a magnet (eg, the magnet 1433 of FIG. 15 ) and a coil (eg, FIG. 15 ) of the coil 1430-5)).
  • the second carrier 1420 may be moved by vibration of the first piezoelectric actuator 1421 .
  • the first piezoelectric actuator 1421 may vibrate, and accordingly, the second carrier 1420 may move linearly.
  • the second carrier 1420 may move as much as the shaft length of the first piezoelectric actuator 1421 .
  • the third carrier 1430 may be moved by vibration of the second piezoelectric actuator 1431 .
  • the second piezoelectric actuator 1431 may vibrate, and accordingly, the third carrier 1430 may move linearly.
  • the third carrier 1430 may move as much as the shaft length of the second piezoelectric actuator 1431 .
  • FIG. 18 is a diagram schematically illustrating a concept of moving a lens module and a lens included in a camera module, according to an embodiment.
  • FIG. 18 may be a conceptual diagram schematically illustrating movement of a lens module using a piezoelectric actuator and movement of a lens using a VCM method.
  • the processor may linearly move the carrier (eg, the third carrier 1430 ) by controlling the piezoelectric actuator (eg, the second piezoelectric actuator).
  • the processor may move the lens module in the carrier (eg, the third carrier 1430 ) through the VCM method.
  • the processor 320 may control the movement of the lens module to which the magnets 1811 , 1821 , and 1831 are attached by controlling the current flowing through the coils (eg, 1810 , 1820 , 1830 ).
  • the processor moves the carrier (eg, the third carrier 1430) to a piezoelectric actuator, and the lens modules inside the carrier (eg, the third carrier 1430) are VCM By fine-tuning the position with , you can focus accurately.
  • 19 is a diagram illustrating a state in which lens modules are moved according to optical magnification when the camera module is in a basic state, according to an embodiment.
  • FIG. 19-1 shows the structure of the camera module (eg, the third camera module 133) before it is expanded.
  • FIGS. 19-2 to 19-3 show positions of lens modules when different optical magnifications are set in a state before the camera module (eg, the third camera module 133) is expanded. .
  • the lens modules may be included in a carrier (eg, 1410, 1420, 1430), and may move along with the movement of the carrier (eg, 1410, 1420, 1430).
  • the second carrier 1420 including a lens module in the case of FIG. 19-3 where the optical magnification is 4 magnification than in the case of FIG. 19-2 where the optical magnification is 3 magnification.
  • the second carrier 1420 including a lens module may be located closer to the first carrier 1410 including the lens module (eg, the first lens module). For example, as the optical magnification increases, the distance between the second carrier 1420 and the third carrier 1430 may increase.
  • the processor eg, the processor 320 of the electronic device (eg, the electronic device 100) identifies the changed length of the camera module (eg, the third camera module 133), and FIG. 19- 2 to 19-3, it is possible to identify an arrangement state of carriers and/or lens modules that satisfy set optical magnifications (eg, 3 magnifications, 4 magnifications).
  • the processor eg, the processor 320
  • 20 is a diagram illustrating a state in which a carrier and lens modules inside a camera module are moved according to an optical magnification when the camera module is in an extended state, according to an embodiment.
  • FIG. 20-1 shows a structure in which a camera module (eg, the third camera module 133) is expanded.
  • a camera module eg, the third camera module 133
  • FIGS. 20-2 to 20-3 show positions of lens modules when different optical magnifications are set in an expanded state of the camera module (eg, the third camera module 133).
  • the lens modules may be included in a carrier (eg, 1410, 1420, 1430), and may move along with the movement of the carrier (eg, 1410, 1420, 1430).
  • the second carrier 1420 including the second lens module in the case of FIG. 20-3 where the optical magnification is 15 magnification than in the case of FIG. 20-2 where the optical magnification is 2 magnification is the first lens module. It may be located closer to the included first carrier 1410 . For example, as the optical magnification increases, the distance between the second carrier 1420 and the third carrier 1430 may increase.
  • the processor eg, the processor 320 of the electronic device (eg, the electronic device 100) identifies the changed length of the camera module of the camera module (eg, the third camera module 133), An arrangement state of carriers and/or lens modules satisfying the set optical magnifications (eg, 2 magnifications, 15 magnifications) as shown in FIGS. 20-2 to 20-3 may be identified.
  • the processor eg, the processor 320
  • 21 is a diagram illustrating a state in which a carrier and/or lens modules are moved according to an optical magnification in response to a structural change of a camera module, according to an embodiment.
  • FIGS. 21-1 to 21-5 illustrate a case in which the magnification is increased as the camera module (eg, the third camera module 133) is gradually expanded. show the appearance
  • FIG. 21-1 shows a state before the camera module (eg, the third camera module 133) is expanded
  • FIGS. 21-2 to 21-4 show a state in which it is being expanded
  • FIG. 21- 5 indicates the state in which it is extended to the maximum.
  • the processor (eg, the processor 320 ) of the electronic device is a camera module and/or camera according to the expansion of the camera module (eg, the third camera module 133 ).
  • the changed length of the holder can be identified.
  • the electronic device 100 moves the second housing (eg, the second housing 142 ) using the device extension sensing module 350 under the control of the processor 320 and/or the display 310 .
  • the electronic device 100 has a third camera corresponding to movement of the second housing (eg, the second housing 142 ) and/or expansion or reduction of the exposed area of the display 310 under the control of the processor 320 .
  • Changes in the structure (eg, length or size) of the module 133 may be identified.
  • the electronic device 100 may identify the length of the camera module and/or the camera holder changed according to the change in the structure of the third camera module 133 under the control of the processor 320 .
  • the processor eg, the processor 320 of the electronic device (eg, the electronic device 100 ) may check the set optical magnification.
  • the optical magnification may be preset in the camera module 330 by the user, or may be changed during expansion or reduction of the exposure area of the display 310 .
  • the processor (eg, processor 320 ) of the electronic device is a carrier and/or lens module that satisfies the length and optical magnification of the identified camera module and/or camera holder. You can identify the arrangement status of them. For example, according to the control of the processor 320 , the electronic device 100 sets the identified length and optical magnification of the camera module and/or camera holder to the arrangement state of the carrier and/or lens modules stored in the memory 340 . It can be compared and mapped with related data.
  • the processor eg, the processor 320 of the electronic device (eg, the electronic device 100) may move the current carrier and/or lens modules so that the carrier and/or lens modules are arranged. there is.
  • 22 is a diagram illustrating a flow of adjusting an arrangement state of lens modules according to whether an electronic device is in focus, according to an embodiment.
  • FIG. 22 the flow of FIG. 22 will be described with reference to FIG. 23 showing an electronic device adjusting an arrangement state of lenses.
  • the electronic device eg, the electronic device 100 . arranges carriers and/or lens modules under the control of the processor (eg, the processor 320 ) in an identified arrangement state can be moved to become
  • the electronic device 100 may move a carrier (eg, the second carrier 1420 or the third carrier 1430) to the identified arrangement state under the control of the processor 320 . .
  • a carrier eg, the second carrier 1420 or the third carrier 1430
  • the electronic device may determine whether the focus is accurately performed under the control of the processor (eg, the processor 320 ).
  • the electronic device 100 may determine whether an image is accurately focused by using an image sensor (eg, the image sensor 1900 ) under the control of the processor 320 .
  • an image sensor eg, the image sensor 1900
  • the electronic device 100 may perform operation 2230 .
  • the electronic device 100 may perform operation 2220 .
  • the electronic device may adjust (or readjust) the arrangement state of the lens modules under the control of the processor (eg, the processor 320). .
  • the electronic device 100 determines that the image is not accurately focused under the control of the processor 320 , the electronic device 100 is included in the carrier (eg, the second carrier 1420 and the third carrier 1430 ).
  • the positions of the lens modules can be finely adjusted.
  • the second lens module included in the second carrier 1420 and/or the third lens module included in the third carrier 1430 may be configured to correspond to the identified arrangement state under the control of the processor 320 .
  • the electronic device 100 may finely adjust the positions of the lens modules included in the carriers 1420 and 1430 in the VCM method under the control of the processor 320 .
  • the positions of the carriers 1420 and 1430 and/or the lens modules may be moved again. .
  • FIG. 23 shows a state in which the positions of the lens modules included in the carriers 1420 and 1430 are finely adjusted according to the optical magnification.
  • the electronic device 100 may finely adjust the position of the lens module to which the magnet is coupled by controlling the current of the coil under the control of the processor 320 .
  • the electronic device may acquire an image under the control of a processor (eg, the processor 320 ).
  • the electronic device 100 acquires the image without separately adjusting the arrangement state of the carrier and/or lens modules when it is determined that the image is in focus under the control of the processor 320 . can do.
  • 24 is a diagram schematically illustrating a structure of a camera module included in an electronic device, according to another exemplary embodiment.
  • FIGS. 24-1 to 24-2 show a structure including three or more camera holders in the structure of a camera module (eg, the third camera module 133). Since the camera module (eg, the third camera module 133) includes three or more camera holders, it may be possible to respond to various extension distances and optimize the structure.
  • a camera module (eg, a third camera module 133 ) including two camera holders (eg, a first camera holder 510 and a second camera holder 520 ). ), the camera module (eg, the third camera module 133) may include three or more camera holders.
  • the description of the structure of the camera module (eg, the third camera module 133) of FIGS. 4 to 23 described above may be applied.
  • the camera module (eg, the third camera module 133 ) may include a first camera holder 2410 and a second camera holder 2420 , and the first camera holder 2410 and the second camera holder 2410 .
  • a third camera holder 2430 may be disposed between the two camera holders 2420 .
  • first camera holder 2410 and the third camera holder 2430 may be movably connected (or coupled) to each other, and the third camera holder 2430 and the second camera holder 2420 are also They may be connected (or coupled) to each other so as to be movable.
  • 25 is a diagram illustrating a state in which carriers including a lens module move according to a structural change of a camera module, according to another embodiment.
  • the camera module (eg, the third camera module 133) of FIG. 25-1 shows a state before being expanded.
  • carriers eg, the first carrier 2410-1, the second carrier 2420-1, or the third carrier 2430-1) are three camera holders. (eg, the first camera holder 2410, the second camera holder 2420, or the third camera holder 2430) including a camera module (eg, the third camera module 133) shows an arrangement .
  • FIG. 25-2 illustrates a state in which a camera module (eg, the third camera module 133) is expanded.
  • a camera module eg, the third camera module 133
  • the first camera holder 2410 may be movably connected (or coupled) to the third camera holder 2430 .
  • the third camera holder 2430 may be movably connected (or coupled) to the second camera holder 2420 .
  • carriers eg, first carrier in a space formed by camera holders (eg, first camera holder 2410 , second camera holder 2420 , and third camera holder 2430 ) 2410 - 1 , a second carrier 2420 - 1 , and a third carrier 2430 - 1 ) may be disposed.
  • camera holders eg, first camera holder 2410 , second camera holder 2420 , and third camera holder 2430 .
  • the first carrier 2410 - 1 and the third carrier 2430 - 1 may share a first piezoelectric actuator (eg, the piezoelectric actuator 1300 of FIG. 13 ).
  • the piezoelectric actuator may participate in movement of the first carrier 2410 - 1 .
  • the third carrier 2430 - 1 and the second carrier 2420 - 1 may share a second piezoelectric actuator (eg, the piezoelectric actuator 1300 of FIG. 13 ).
  • the second piezoelectric actuator may participate in movement of the second carrier 2420 - 1 .
  • the third carrier 2430 - 1 may be fixed to the third camera holder 2430 so as not to move. In this case, the third carrier 2430 - 1 may not share the first piezoelectric actuator or the second piezoelectric actuator.
  • the description of the movement of carriers using the piezoelectric actuator described with reference to FIGS. 13 to 18 includes three camera holders (eg, the first camera holder 2410 , the second camera holder 2420 , the second 3 may also be applied to the description of the camera module (eg, the third camera module 133) including the camera holder 2430).
  • 26 is a diagram illustrating a zoom-in/zoom-out operation related to a size change of an exposure area of a display of an electronic device, according to an embodiment.
  • FIGS. 26-1 to 26-3 show a zoom-in/zoom-out operation of an electronic device (eg, the electronic device 100) according to an expansion or reduction of a display (eg, the display 310). indicates
  • the electronic device 100 may perform a zoom-in operation under the control of the processor 320 .
  • the electronic device 100 performs a zoom-in operation at a magnification corresponding to the degree of expansion under the control of the processor 320 . By doing so, it is possible to provide an image with a high magnification to the user.
  • the electronic device 100 zooms in under the control of the processor 320 . An enlarged image may be provided to the user by performing the operation.
  • the electronic device 100 may perform a zoom-out operation under the control of the processor 320 .
  • the electronic device 100 performs a zoom-out operation at a magnification corresponding to the reduced degree under the control of the processor 320 .
  • the electronic device 100 zooms out according to the control of the processor 320 .
  • a low magnification image may be provided to the user.
  • the electronic device 100 when enlarging or reducing an area shown outside of the display 310 , the electronic device 100 performs a zoom-in operation or a zoom-out operation on the preview screen under the control of the processor 320 .
  • the available optical magnification on the screen may be displayed based on the size of the area. For example, when the user sets the optical magnification, the electronic device 100 may display a preview screen corresponding to the corresponding optical magnification under the control of the processor 320 .
  • FIG. 27 is a diagram illustrating a user interface for inducing zoom in/out related to a change in a size of an exposed area of a display of an electronic device, according to an embodiment.
  • the electronic device 100 may provide a user interface for inducing a slide-out operation for zooming in to the user under the control of the processor 320 .
  • a user interface for inducing a slide-out operation for zooming in to the user under the control of the processor 320 .
  • the electronic device 100 provides an image to the user at a specific magnification through the display 310 , if an area visible outside the display 310 is enlarged, an image with a higher magnification may be provided.
  • a user interface eg, slide out to quick zoom in
  • the electronic device 100 may provide a user interface for inducing a slide-in operation to zoom out to the user under the control of the processor 320 .
  • a user interface for inducing a slide-in operation to zoom out to the user under the control of the processor 320 .
  • a user interface eg, slide in to quick zoom out
  • FIG. 28 is a diagram illustrating a user interface in which a size of an exposure area of a display of an electronic device and an optical magnification are linked, according to an exemplary embodiment.
  • the electronic device 100 displays a zoom preview 2810 or a magnification display area 2820 on the screen of the display 310 under the control of the processor 320 . can do.
  • a preview screen for an image that is changed to a high magnification/low magnification when zooming in/out of the zoom preview 2810 may be displayed.
  • the magnification of the image displayed on the screen of the display 310 may be displayed in the magnification display area 2820 according to the expansion of the display 310 .
  • the magnification of the image displayed on the screen may mean an image magnification that can be set by a user.
  • the electronic device 100 may display a first screen when a user first enters an application under the control of the processor 320 .
  • the electronic device 100 expands by 20% compared to the maximum exposure area shown outside of the display 320 under the control of the processor 320 . It is possible to display a user interface that is magnified by 2 times. As another example, when the display 320 is expanded by 20% with respect to the maximum exposure area shown outside, the user may set the optical magnification to 2 magnification.
  • the electronic device 100 expands by 40% compared to the maximum exposure area shown outside of the display 320 under the control of the processor 320 . It is possible to display a user interface that is magnified by 4 times. As another example, when the display 320 is expanded by 40% with respect to the maximum exposure area shown outside, the user may set the optical magnification up to 4 magnifications.
  • the electronic device 100 expands 100% with respect to the maximum exposure area shown outside of the display 320 under the control of the processor 320 .
  • a user interface magnified by a factor of 10 can be displayed.
  • the user may set the optical magnification up to 10 magnification.
  • the electronic device 100 may provide a more improved user experience to the user by displaying the magnification according to the degree of expansion of the display 320 under the control of the processor 320 .
  • the above-mentioned numerical values are examples, and may vary according to settings and there may be no particular limitations.
  • 29 is a diagram illustrating another example in which a camera module is disposed in an electronic device, according to an embodiment.
  • At least a portion of the third camera module 133 may not be visible from the rear in a state in which the display 320 is not expanded.
  • At least a portion of the third camera module 133 may be viewed from the rear in a state in which the display 320 is expanded.
  • the third camera module 133 is selected according to whether the area shown outside of the display 320 is expanded. 3 It is possible to prevent the camera module 133 from being seen from the outside. For example, in a non-expanded state of the area visible to the outside of the display 320 , the third camera module 133 may not be visible to the outside and may not substantially operate. As another example, when the area shown outside of the display 320 is expanded, at least a portion of the third camera module 133 may be viewed outside, and the third camera module 133 may operate. .
  • FIG. 30 is a block diagram of an electronic device in a network environment, according to an embodiment.
  • the electronic device 3001 communicates with the electronic device 3002 through a first network 3098 (eg, a short-range wireless communication network) or a second network 3099 . It may communicate with the electronic device 3004 or the server 3008 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 3001 may communicate with the electronic device 3004 through the server 3008 .
  • the electronic device 3001 includes a processor 3020 , a memory 3030 , an input module 3050 , a sound output module 3055 , a display module 3060 , an audio module 3070 , and a sensor module ( 3076), interface 3077, connection terminal 3078, haptic module 3079, camera module 3080, power management module 3088, battery 3089, communication module 3090, subscriber identification module 3096 , or an antenna module 3097 .
  • at least one of these components eg, the connection terminal 3078
  • some of these components are integrated into one component (eg, display module 3060 ). can be
  • the processor 3020 for example, executes software (eg, a program 3040) to execute at least one other component (eg, a hardware or software component) of the electronic device 3001 connected to the processor 3020. It can control and perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 3020 converts a command or data received from another component (eg, the sensor module 3076 or the communication module 3090) to the volatile memory 3032 . , process the command or data stored in the volatile memory 3032 , and store the result data in the non-volatile memory 3034 .
  • software eg, a program 3040
  • the processor 3020 converts a command or data received from another component (eg, the sensor module 3076 or the communication module 3090) to the volatile memory 3032 . , process the command or data stored in the volatile memory 3032 , and store the result data in the non-volatile memory 3034 .
  • the processor 3020 is the main processor 3021 (eg, a central processing unit or an application processor) or a secondary processor 3023 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 3021 e.g, a central processing unit or an application processor
  • a secondary processor 3023 e.g, a graphic processing unit, a neural network processing unit
  • a neural processing unit NPU
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the coprocessor 3023 may be, for example, on behalf of the main processor 3021 while the main processor 3021 is in an inactive (eg, sleep) state, or when the main processor 3021 is active (eg, executing an application). ), together with the main processor 3021, at least one of the components of the electronic device 3001 (eg, the display module 3060, the sensor module 3076, or the communication module 3090) It is possible to control at least some of the related functions or states.
  • the co-processor 3023 eg, image signal processor or communication processor
  • the auxiliary processor 3023 may include a hardware structure specialized in processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 3001 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 3008).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 3030 may store various data used by at least one component of the electronic device 3001 (eg, the processor 3020 or the sensor module 3076 ).
  • the data may include, for example, input data or output data for software (eg, the program 3040 ) and instructions related thereto.
  • the memory 3030 may include a volatile memory 3032 or a non-volatile memory 3034 .
  • the program 3040 may be stored as software in the memory 3030 , and may include, for example, an operating system 3042 , middleware 3044 , or an application 3046 .
  • the input module 3050 may receive a command or data to be used in a component (eg, the processor 3020 ) of the electronic device 3001 from the outside (eg, a user) of the electronic device 3001 .
  • the input module 3050 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 3055 may output a sound signal to the outside of the electronic device 3001 .
  • the sound output module 3055 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to an embodiment, the receiver may be implemented separately from or as a part of the speaker.
  • the display module 3060 may visually provide information to the outside (eg, a user) of the electronic device 3001 .
  • the display module 3060 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 3060 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 3070 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 3070 acquires a sound through the input module 3050 or an external electronic device (eg, a sound output module 3055 ) directly or wirelessly connected to the electronic device 3001 .
  • the electronic device 3002) eg, a speaker or headphones
  • the sensor module 3076 detects an operating state (eg, power or temperature) of the electronic device 3001 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 3076 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 3077 may support one or more specified protocols that may be used for the electronic device 3001 to directly or wirelessly connect with an external electronic device (eg, the electronic device 3002 ).
  • the interface 3077 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 3078 may include a connector through which the electronic device 3001 can be physically connected to an external electronic device (eg, the electronic device 3002 ).
  • the connection terminal 3078 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 3079 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 3079 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 3080 may capture still images and moving images. According to an embodiment, the camera module 3080 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 3088 may manage power supplied to the electronic device 3001 .
  • the power management module 3088 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 3089 may supply power to at least one component of the electronic device 3001 .
  • the battery 3089 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 3090 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 3001 and an external electronic device (eg, the electronic device 3002, the electronic device 3004, or the server 3008). It can support establishment and communication performance through the established communication channel.
  • the communication module 3090 may include one or more communication processors that operate independently of the processor 3020 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 3090 includes a wireless communication module 3092 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 3094 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • a corresponding communication module among these communication modules is a first network 3098 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 3099 (eg, legacy).
  • a first network 3098 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 3099 eg, legacy
  • the wireless communication module 3092 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 3096 within a communication network such as the first network 3098 or the second network 3099 .
  • the electronic device 3001 may be identified or authenticated.
  • the wireless communication module 3092 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 3092 may support a high frequency band (eg, mmWave band) to achieve a high data rate.
  • a high frequency band eg, mmWave band
  • the wireless communication module 3092 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 3092 may support various requirements defined in the electronic device 3001 , an external electronic device (eg, the electronic device 3004 ), or a network system (eg, the second network 3099 ).
  • the wireless communication module 3092 includes a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 3097 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 3097 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 3097 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 3098 or the second network 3099 is connected from the plurality of antennas by, for example, the communication module 3090 . can be selected. A signal or power may be transmitted or received between the communication module 3090 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 3097 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a specified high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 3001 and the external electronic device 3004 through the server 3008 connected to the second network 3099 .
  • Each of the external electronic devices 3002 or 3004 may be the same or a different type of the electronic device 3001 .
  • all or a part of operations executed in the electronic device 3001 may be executed in one or more external electronic devices 3002 , 3004 , or 3008 .
  • the electronic device 3001 may perform the function or service by itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 3001 .
  • the electronic device 3001 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 3001 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 3004 may include an Internet of things (IoT) device.
  • IoT Internet of things
  • the server 3008 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 3004 or the server 3008 may be included in the second network 3099 .
  • the electronic device 3001 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • 31 is a block diagram 3100 illustrating a camera module 3080, in accordance with various embodiments.
  • the camera module 3080 includes a lens assembly 3110 , a flash 3120 , an image sensor 3130 , an image stabilizer 3140 , a memory 3150 (eg, a buffer memory), or an image signal processor. (3160) may be included.
  • the lens assembly 3110 may collect light emitted from a subject, which is an image to be captured.
  • the lens assembly 3110 may include one or more lenses.
  • the camera module 3080 may include a plurality of lens assemblies 3110 . In this case, the camera module 3080 may form, for example, a dual camera, a 360 degree camera, or a spherical camera.
  • Some of the plurality of lens assemblies 3110 may have the same lens properties (eg, angle of view, focal length, auto focus, f number, or optical zoom), or at least one lens assembly may be a different lens assembly. It may have one or more lens properties different from the lens properties of .
  • the lens assembly 3110 may include, for example, a wide-angle lens or a telephoto lens.
  • the flash 3120 may emit light used to enhance light emitted or reflected from the subject.
  • the flash 3120 may include one or more light emitting diodes (eg, a red-green-blue (RGB) LED, a white LED, an infrared LED, or an ultraviolet LED), or a xenon lamp.
  • the image sensor 3130 may acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly 3110 into an electrical signal.
  • the image sensor 3130 is, for example, an image sensor selected from among image sensors having different properties, such as an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor, the same It may include a plurality of image sensors having properties, or a plurality of image sensors having different properties.
  • Each image sensor included in the image sensor 3130 may be implemented using, for example, a charged coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor.
  • CCD charged coupled device
  • CMOS complementary metal oxide semiconductor
  • the image stabilizer 3140 moves at least one lens or the image sensor 3130 included in the lens assembly 3110 in a specific direction or Operation characteristics of the image sensor 3130 may be controlled (eg, read-out timing may be adjusted, etc.). This makes it possible to compensate for at least some of the negative effects of the movement on the image being taken.
  • the image stabilizer 3140 is, according to an embodiment, the image stabilizer 3140 is a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module 3080 . Such a movement of the camera module 3080 or the electronic device 3001 may be detected using .
  • the image stabilizer 3140 may be implemented as, for example, an optical image stabilizer.
  • the memory 3150 may temporarily store at least a portion of the image acquired through the image sensor 3130 for the next image processing operation. For example, when image acquisition is delayed according to the shutter or a plurality of images are acquired at high speed, the acquired original image (eg, Bayer-patterned image or high-resolution image) is stored in the memory 3150 and , a copy image corresponding thereto (eg, a low-resolution image) may be previewed through the display device 3060 .
  • the acquired original image eg, Bayer-patterned image or high-resolution image
  • a copy image corresponding thereto eg, a low-resolution image
  • the memory 3150 may be configured as at least a part of the memory 3030 or as a separate memory operated independently of the memory 3030 .
  • the image signal processor 3160 may perform one or more image processing on an image acquired through the image sensor 3130 or an image stored in the memory 3150 .
  • the one or more image processes may include, for example, depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, or image compensation (eg, noise reduction, resolution adjustment, brightness adjustment, blurring ( blurring), sharpening (sharpening), or softening (softening)
  • the image signal processor 3160 may include at least one of components included in the camera module 3080 (eg, an image sensor). 3130) may be controlled (eg, exposure time control, readout timing control, etc.)
  • the image processed by the image signal processor 3160 is stored back in the memory 3150 for further processing.
  • the image signal processor 3160 may be configured as at least a part of the processor 3020 or as a separate processor operated independently of the processor 3020.
  • the image signal processor 3160 may include the processor 3020 and a separate processor, the at least one image processed by the image signal processor 3160 may be displayed through the display device 3060 either as it is by the processor 3020 or after additional image processing.
  • the electronic device 3001 may include a plurality of camera modules 3080 each having different properties or functions.
  • at least one of the plurality of camera modules 3080 may be a wide-angle camera, and at least the other may be a telephoto camera.
  • at least one of the plurality of camera modules 3080 may be a front camera, and at least the other may be a rear camera.
  • the electronic device includes a first housing (eg, the first housing 141), and the second a second housing (eg, second housing 142) connected to the first housing (eg, first housing 141) so as to be movable with respect to a first housing (eg, first housing 141); disposed on a housing (eg, the first housing 141) and the second housing (eg, the second housing 142), and structured according to movement of the second housing (eg, the second housing 142)
  • a changeable flexible display eg, display 310), a camera module capable of setting optical magnification (eg, camera module 330), and the flexible display (eg, display 310) and the camera module (eg: camera module 330) and a processor (eg, processor 320) electrically connected, wherein the camera module (eg, camera module 330) includes the first housing (eg, first housing 141)
  • a first camera holder eg, first camera holder
  • the processor eg, processor 320
  • identifies movement of the second housing eg, second housing 142
  • the identified movement of the second housing eg, the second housing 142 and the arrangement state of lens modules that satisfy the optical magnification are identified, and the first lens module (eg, the first lens module 910) ) and the second lens module (eg, the second lens module 920) may be moved to the identified arrangement state.
  • the electronic device further includes a device extended sensing module (eg, the device extended sensing module 350).
  • the processor eg, the processor 320
  • the processor is configured to use the device extended sensing module (eg, the device extended sensing module 350) to the second housing (eg, the second housing 142) or the A movement of the flexible display (eg, display 310) is detected, and a size of an exposed area of the flexible display (eg, display 310) is identified based on the detection, and the identified size of the exposed area and the It is possible to identify an arrangement state of the lens modules that satisfy the optical magnification.
  • the size of the exposed area of the flexible display (eg, the display 310) of the electronic device (eg, the electronic device 100) is As is changed, the structure of the camera module (eg, the camera module 330) may also be changed.
  • the electronic device (eg, the electronic device 100) according to an embodiment, the electronic device (eg, the electronic device 100) further includes a memory, and the memory includes the identified second housing (eg, the electronic device 100). : Data regarding the movement of the second housing 142 and the arrangement state of lens modules satisfying the optical magnification may be stored.
  • the first camera holder (eg, the first camera holder 510) is connected to the first housing (eg, the first and the housing 141), and the second camera holder (eg, the second camera holder 520) may be coupled to the second housing (eg, the second housing 142) through a second bracket. .
  • the first bracket and the second bracket include the first housing (eg, the first housing 141) and the second housing (eg, the first housing 141). : Can be screwed to the second housing 142).
  • the second bracket includes a cushioning substrate, and the cushioning substrate includes the first 1 It can come into contact with the bracket.
  • the processor eg, the processor 320
  • the processor is formed by the movement of the second housing (eg, the second housing 142). Lengths of the first camera holder (eg, the first camera holder 510 ) and the second camera holder (eg, the second camera holder 520 ) may be identified.
  • the processor includes the first lens module (eg, the first lens module 910) and the second The lens module (eg, the second lens module 920) may be moved by at least one of a voice coil motor (VCM) method and a method using a piezoelectric actuator.
  • VCM voice coil motor
  • the first lens module (eg, the first lens module 910) is coupled to a first piezoelectric actuator
  • the second lens module (eg, the second lens module 920) may be coupled to a second piezoelectric actuator.
  • the processor determines whether the camera module (eg, the camera module 330) is in focus. and readjusting the positions of the first lens module (eg, the first lens module 910) and the second lens module (eg, the second lens module 920) when it is determined that the focus is not achieved, and the When it is determined that the focus is correct, an image may be acquired using the camera module (eg, the camera module 330 ).
  • the camera module (eg, the camera module 330) includes the first camera holder (eg, the first camera holder 510) and A third camera holder is further included between the second camera holder (eg, the second camera holder 520 ), wherein the third camera holder includes the first camera holder (eg, the first camera holder 510 ). and the first camera holder (eg, the first camera holder 510) and the second camera holder (eg, the second camera) so as to be movable with respect to the second camera holder (eg, the second camera holder 520). It may be connected to the holder 520).
  • the processor obtains an input for a user to expand the flexible display (eg, the display 310 )
  • a zoom-in operation may be performed, and a zoom-out operation may be performed when the user obtains an input for reducing the flexible display (eg, the display 310 ).
  • the processor eg, the processor 320
  • zooms in or zooms in to the user through the flexible display eg, the display 310 .
  • a user interface that induces out can be displayed.
  • the processor includes the size of the exposed area of the flexible display (eg, the display 310 ) and the optical magnification. It is possible to provide an associated user interface.
  • the electronic device in an electronic device (eg, the electronic device 100) includes a first housing (eg, the first housing 141) and the second a second housing (eg, second housing 142) connected to the first housing (eg, first housing 141) so as to be movable with respect to a first housing (eg, first housing 141); disposed on a housing (eg, the first housing 141) and the second housing (eg, the second housing 142), and according to movement of the second housing (eg, the second housing 142), the A flexible display (eg, the display 310) capable of changing the size of the exposed area toward the front of the electronic device (eg, the electronic device 100), a camera module (eg, the camera module 330) in which the optical magnification is set, and the camera A module (eg, camera module 330) is coupled to the first housing (eg, first housing 141) and a first lens module (eg, first lens module 910) disposed along a first optical axi
  • the second lens module (eg, the second lens module 920) and the third lens module satisfy the set optical magnification of the camera module (eg, the camera module 330) may identify a second position, and move the second lens module (eg, the second lens module 920) and the third lens module to the second position.
  • the electronic device further includes a device extended sensing module (eg, the device extended sensing module 350).
  • the processor eg, processor 320
  • the size of the exposed area may be identified based on the detection.
  • the electronic device (eg, the electronic device 100 ) further includes a memory, wherein the memory includes the detected size of the exposed area and Data regarding the second position that satisfies the optical magnification may be stored.
  • the processor includes the first lens module (eg, the first lens module 910) and the second The second lens module (eg, the second lens module 920) may be moved by at least one of a voice coil motor (VCM) method and a method using a piezoelectric actuator.
  • VCM voice coil motor
  • the first lens module (eg, the first lens module 910) is coupled to a first piezoelectric actuator
  • the second lens module (eg, the second lens module 920) may be coupled to a second piezoelectric actuator.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, for example, and interchangeably with terms such as logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 3040) including
  • a processor eg, processor 3020
  • a device eg, electronic device 3001
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the methods according to various embodiments disclosed in this document may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed online (eg download or upload), directly between smartphones (eg smartphones).
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. .
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.

Abstract

본 문서의 일 실시 예에 따른 전자 장치에 있어서, 상기 전자 장치는, 제1 하우징, 및 상기 제1 하우징에 대해 이동 가능하도록 상기 제1 하우징에 연결된 제2 하우징, 상기 제1 하우징 및 상기 제2 하우징 상에 배치되고, 상기 제2 하우징의 이동에 따라 상기 전자 장치 전면으로의 노출 영역의 크기를 변경 가능한 플렉서블 디스플레이, 광학 배율이 설정된 카메라 모듈, 상기 카메라 모듈은 상기 제1 하우징에 결합되고 제1 광축을 따라 배치되는 제1 렌즈를 포함하는 제1 카메라 홀더, 및 상기 제2 하우징에 결합되고 상기 제1 광축을 따라 배치되는 제2 렌즈를 적어도 포함하는 제2 카메라 홀더를 포함하고, 상기 제2 카메라 홀더는 상기 제2 하우징의 이동을 따라 상기 제1 카메라 홀더에 대해 상기 제1 광축 상에서 이동할 수 있다. 이 외에 다양한 실시 예들이 가능할 수 있다.

Description

카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법
본 개시는 카메라 모듈의 구조를 변경하는 방법에 관한 것으로, 보다 상세하게는 전자 장치의 구조 변경에 따라 카메라 모듈의 구조도 변화되는 방법에 관한 것이다.
기술 발전에 따라 휘어질 수 있는 형태의 전자 장치, 복수의 하우징을 포함함으로써 접을 수 있거나 슬라이딩 될 수 있는 형태의 전자 장치와 같은 다양한 형태의 전자 장치가 개발되고 있다.
다양한 형태의 전자 장치에는 카메라 모듈이 포함된다. 전자 장치에는 복수의 화각을 가지는 카메라 모듈들이 배치됨으로써 사용자들이 다양한 화각의 이미지들을 획득할 수 있다.
전자 장치의 구조가 변화하여도 카메라 모듈의 구조가 변화하지 않기 때문에 초점거리나 광학 배율을 변경하기에는 어려움이 있을 수 있다. 예를 들어, 카메라 모듈의 렌즈는 모듈 내부에 공간에 배치되어 이동에 어려움이 있으므로, 전자 장치의 크기가 증가하여도 카메라 모듈의 크기가 변하지 않는 경우에 여전히 초점거리나 광학 배율의 변경에는 어려움이 있을 수 있다.
예를 들어, 슬라이더블 전자 장치의 경우, 전자 장치의 하우징이 이동함에 따라 전자 장치의 크기가 증가되어, 외부에 보여지는 디스플레이 영역이 확장되어도, 확장에 따라 발생된 공간을 카메라 모듈이 구조적으로 이용하지 못함으로써 공간 활용을 효율적으로 하지 못할 수 있다.
본 개시의 카메라 모듈은 전자 장치의 하우징들에 각각 결합될 수 있고, 전자 장치의 구조가 변화함에 따라 카메라 모듈의 구조도 함께 변화할 수 있다.
본 문서의 일 실시 예에 따른 전자 장치에 있어서, 상기 전자 장치는, 제1 하우징, 및 상기 제1 하우징에 대해 이동 가능하도록 상기 제1 하우징에 연결된 제2 하우징, 상기 제1 하우징 및 상기 제2 하우징 상에 배치되고, 상기 제2 하우징의 이동에 따라 구조 변경이 가능한 플렉서블 디스플레이, 광학 배율의 설정이 가능한 카메라 모듈, 상기 카메라 모듈은, 상기 제1 하우징에 결합되고 제1 광축을 따라 배치되는 제1 렌즈 모듈을 포함하는 제1 카메라 홀더 및 상기 제2 하우징에 결합되고 상기 제1 광축을 따라 배치되는 제2 렌즈 모듈을 적어도 포함하는 제2 카메라 홀더를 포함하고, 상기 제2 카메라 홀더는 상기 제2 하우징의 이동을 따라 상기 제1 카메라 홀더에 대해 상기 제1 광축 상에서 이동 가능하며, 상기 플렉서블 디스플레이 및 상기 카메라 모듈과 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는 상기 제2 하우징의 이동을 식별하고, 식별된 상기 제2 하우징 및 상기 광학 배율을 만족시키는 렌즈 모듈들의 배열 상태를 식별하고, 상기 제1 렌즈 모듈 및 상기 제2 렌즈 모듈을 식별된 상기 배열 상태가 되도록 이동시킬 수 있다.
본 문서의 일 실시 예에 따른 전자 장치에 있어서, 상기 전자 장치는, 제1 하우징, 및 상기 제1 하우징에 대해 이동 가능하도록 상기 제1 하우징에 연결된 제2 하우징, 상기 제1 하우징 및 상기 제2 하우징 상에 배치되고, 상기 제2 하우징의 이동에 따라 상기 전자 장치 전면으로의 노출 영역의 크기를 변경 가능한 플렉서블 디스플레이, 광학 배율이 설정된 카메라 모듈, 상기 카메라 모듈은 상기 제1 하우징에 결합되고 제1 광축을 따라 배치되는 제1 렌즈 모듈을 포함하는 제1 카메라 홀더, 및 상기 제2 하우징에 결합되고 상기 제1 광축을 따라 배치되는 제2 렌즈 모듈을 적어도 포함하는 제2 카메라 홀더를 포함하고, 상기 제2 카메라 홀더는 상기 제2 하우징의 이동을 따라 상기 제1 카메라 홀더에 대해 상기 제1 광축 상에서 이동 가능하며, 상기 플렉서블 디스플레이 및 상기 카메라 모듈과 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 플렉서블 디스플레이의 상기 노출 영역의 크기를 식별하고, 상기 제2 렌즈 모듈 및 상기 제3 렌즈 모듈의 현재 위치에 대응하는 제1 위치를 식별하고, 상기 제2 렌즈 모듈 및 상기 제3 렌즈 모듈이 상기 카메라 모듈의 설정된 배율을 만족시키는 제2 위치를 식별하고, 상기 제2 렌즈 모듈 및 상기 제3 렌즈 모듈을 상기 제2 위치로 이동시킬 수 있다.
본 개시의 전자 장치에 포함된 카메라 모듈은 전자 장치의 구조가 변화함에 따라 카메라 모듈의 구조도 함께 변화됨으로써 기존의 활용하지 못한 공간을 활용할 수 있고, 전자 장치는 적응적인 구조를 가질 수 있다.
본 개시의 전자 장치의 길이가 증가함에 따라 카메라 모듈의 길이도 증가할 수 있고, 이에 따라 카메라 모듈 내에 배치된 렌즈들의 이동 범위가 더 넓어질 수 있다.
본 개시의 전자 장치는 디스플레이 확장에 따른 카메라 모듈의 길이를 식별함으로써, 변화한 카메라 모듈의 길이에 대응하는 렌즈들의 위치를 광학 배율 및 초점에 맞게 조정할 수 있다.
다양한 실시 예들에 기초하여 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
이상에서 언급한 본 개시의 실시 예 및 그 외의 실시 예들의 특징 및 장점은 아래의 도면과 관련하여 보다 명확하게 설명될 것이다.
도 1은, 일 실시 예에 따른, 전자 장치의 전면 및 후면을 나타내는 도면이다.
도 2는, 일 실시 예에 따른, 전자 장치의 디스플레이가 확장됨에 따라, 디스플레이가 외부로 보여지는 노출 영역의 크기 변화를 나타내는 도면이다.
도 3은, 일 실시 예에 따른, 카메라 모듈을 포함하는 전자 장치의 구조를 간략하게 나타내는 도면이다.
도 4는, 일 실시 예에 따른, 전자 장치의 디스플레이가 확장됨에 따른 카메라 모듈의 구조를 개념적으로 나타낸 도면이다.
도 5는, 일 실시 예에 따른, 카메라 모듈의 전면 및 후면 구조를 구체적으로 나타내는 도면이다.
도 6는, 일 실시 예에 따른, 카메라 모듈의 측면 구조를 나타내는 도면이다.
도 7은, 일 실시 예에 따른, 카메라 모듈이 전자 장치에 배치되는 형태를 나타내는 도면이다.
도 8은, 일 실시 예에 따른, 전자 장치가 디스플레이의 외부에 보여지는 영역의 변화를 식별하고, 변경된 카메라 모듈의 구조에 대응하는 렌즈들의 배열 상태를 변화시키는 흐름을 나타내는 도면이다.
도 9는, 일 실시 예에 따른, 전자 장치가 렌즈들의 배열 상태의 변화를 나타내는 도면이다.
도 10은, 일 실시 예에 따른, 전자 장치가 광학 배율 및 변화된 카메라 홀더 길이를 식별하고, 이를 사전 저장된 데이터와 비교하는 흐름을 나타내는 도면이다.
도 11은, 카메라 모듈에 포함된 렌즈의 이동을 설명하는 도면이다.
도 12는, 일 실시 예에 따른, 카메라 모듈의 확장에 따른 카메라 홀더의 길이 변경과 이에 포함된 렌즈를 이동시키는 모습을 나타내는 도면이다.
도 13은, 일 실시 예에 따른, 카메라 모듈에 포함된 홀더를 이동시키는 방법 중에 하나인 압전 액추에이터의 원리를 나타내는 도면이다.
도 14는, 일 실시 예에 따른, 카메라 모듈의 구조 변화를 나타내는 도면이다.
도 15는, 일 실시 예에 따른, 카메라 모듈의 렌즈 모듈 및 캐리어에 관한 구조를 구체적으로 나타내는 도면이다.
도 16은, 일 실시 예에 따른, 카메라 모듈의 렌즈 모듈 및 캐리어에 관한 구조를 A-A' 라인을 따라 절단한 단면을 나타내는 도면이다.
도 17은, 일 실시 예에 따른, 카메라 모듈의 구조 변화에 따라 캐리어 및 렌즈 모듈이 이동하는 모습을 나타내는 도면이다.
도 18은, 일 실시 예에 따른, 카메라 모듈에 포함된 렌즈 모듈 및 렌즈의 이동을 나타내는 도면이다.
도 19는, 일 실시 예에 따른, 카메라 모듈이 기본 상태일 때 내부의 렌즈 모듈들을 광학 배율에 따라 이동시키는 모습을 나타내는 도면이다.
도 20은, 일 실시 예에 따른, 카메라 모듈이 확장 상태일 때 내부의 캐리어 및 렌즈 모듈들을 광학 배율에 따라 이동시키는 모습을 나타내는 도면이다.
도 21은, 일 실시 예에 따른, 카메라 모듈의 구조 변화에 대응하여 캐리어 및/또는 렌즈 모듈들을 광학 배율에 따라 이동시키는 모습을 나타내는 도면이다.
도 22는, 일 실시 예에 따른, 전자 장치가 초점이 맞는지 여부에 따라 렌즈 모듈들의 배열 상태를 조정하는 흐름을 나타내는 도면이다.
도 23은, 일 실시 예에 따른, 전자 장치가 렌즈들의 배열 상태를 조정하는 모습을 나타내는 도면이다.
도 24는, 다른 실시 예에 따른, 전자 장치에 포함되는 카메라 모듈의 구조를 간략하게 나타내는 도면이다.
도 25는, 다른 실시 예에 따른, 카메라 모듈의 구조 변화에 따라 렌즈 모듈을 포함하는 캐리어들이 이동하는 모습을 나타내는 도면이다.
도 26은, 일 실시 예에 따른, 전자 장치의 디스플레이의 노출 영역의 크기 변화와 관련된 줌 인/줌 아웃 동작을 나타내는 도면이다.
도 27은, 일 실시 예에 따른, 전자 장치의 디스플레이의 노출 영역의 크기 변화와 관련된 줌 인/줌 아웃을 유도하는 사용자 인터페이스를 나타내는 도면이다.
도 28은, 일 실시 예에 따른, 전자 장치의 디스플레이의 노출 영역의 크기와 광학 배율이 연계되는 사용자 인터페이스를 나타내는 도면이다.
도 29는, 일 실시 예에 따른, 전자 장치에 카메라 모듈이 배치된 다른 예시를 나타내는 도면이다.
도 30은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 31은, 일 실시 예에 따른, 카메라 모듈을 예시하는 블럭도이다.
본 개시는 다양한 실시 예들을 포함하며, 다양한 변형 및 변경된 실시 예가 가능하다. 이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 기술적 사상의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 예를 들어, 제1 구성 요소는 제2 구성 요소라고 지칭될 수 있고, 마찬가지로 제2 구성 요소는 개시된 범위 내에서 제1 구성 요소라고 지칭될 수 있다. "및/또는"과 같은 용어는 관련된 복수 개의 구성 요소 또는 복수 개의 구성 요소 중 어느 하나를 조합한 것을 포함할 수 있다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 개시에서 사용되는 용어는 구체적인 실시 예를 기술하기 위해서 사용되며, 본 개시를 제한하기 위한 것이 아니다. 단수형의 표현은 문맥상 명확하게 다르지 않는 한 복수형의 표현을 포함할 수 있다. 본 개시에서 "포함한다" 또는 "가지다"와 같은 표현은 해당 특징, 숫자, 단계 조작, 구성 요소 또는 구성 요소의 조합의 존재를 가리키기 위한 것이며, 하나 이상의 다른 특징, 숫자, 단계, 조작, 구성 요소 또는 구성 요소의 조합의 존재 또는 추가를 배제하지 않는다.
특별히 정의되지 않은 한, 기술적 또는 과학적인 용어를 포함하여 본 문서에서 사용된 모든 용어는 본 개시와 관련된 기술 분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 용어와 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전적 용어는 관련된 기술 분야의 맥락적인 의미와 동일한 의미를 가지는 것으로 해석되어야 하며, 본 개시에서 명확하게 정의되지 않는 한 지나치게 이상적이거나 형식적인 의미를 가지는 것으로 해석되지 않는다.
본 개시에서, 전자 장치는 터치 패널을 포함한 장치일 수 있고, 단말기, 휴대용 단말기, 이동식 단말기, 통신 단말기, 휴대용 통신 단말기, 또는 디스플레이 장치일 수 있다.
예를 들면, 본 개시의 전자 장치에는 스마트폰, 휴대폰, 내비게이션 장치, 게임 콘솔, TV, 차 내부의 헤드 유닛, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿 컴퓨터, PMP, PDA가 포함될 수 있다. 전 자 기기는 무선 통신 기능이 있는 포켓 크기의 휴대용 통신 단말기로 구현될 수 있다. 또한 전자 기기는 플렉서블 장치 또는 플렉서블 디스플레이 장치일 수 있다.
전자 장치는 서버와 같은 외부 전자 장치와 통신하거나, 외부 전자 장치와의 연동을 통해 작업을 수행할 수 있다. 예를 들어, 전자 장치는 카메라를 이용하여 촬영한 이미지 및/또는 센서부에 의해 감지된 위치 정보를 네트워크를 통해 서버로 전송할 수 있다. 네트워크는 모바일 또는 셀룰러 네트워크, 근거리 통신망(LAN), 무선 근거리 통신망(WLAN), 광역 통신망(WAN), 인터넷 또는 소규모 지역 네트워크(SAN)일 수 있으며 이에 국한되지 않는다.
도 1은, 일 실시 예에 따른, 전자 장치의 전면 및 후면을 나타내는 도면이다.
일 실시 예에 따르면, 도면 1-1은, 전자 장치(100)의 전면을 나타낼 수 있다.
일 실시 예에서, 도면 1-1에 따른 전자 장치(100)에 있어서, 디스플레이(110)가 외부로 노출되는 영역이 확장되지 않은 상태일 수 있다.
일 실시 예에서, 전자 장치(100)의 전면에 디스플레이(110)의 적어도 일부가 노출될 수 있다. 예를 들어, 디스플레이(110)는 플렉서블 디스플레이일 수 있고, 휘어지거나 접힐 수 있다.
일 실시 예에서, 전자 장치(100)는 전면에 전면 카메라(120)가 배치될 수 있다. 전면 카메라(120)는 전자 장치(100)의 전면 방향의 이미지를 획득할 수 있다. 전면 카메라(120)는 전자 장치(100)의 디스플레이(110)와 전자 장치(100)의 후면 사이에 배치될 수 있다.
일 실시 예에서, 전자 장치(100) 전면으로 노출되는 디스플레이(110)의 적어도 일부는 제1 하우징(141) 상에 배치될 수 있다. 일 실시 예에서, 디스플레이(110)의 적어도 일부는 제2 하우징(142) 상에 배치될 수도 있다.
일 실시 예에 따르면, 도면 1-2는, 전자 장치의 후면을 나타낼 수 있다.
일 실시 예에서, 전자 장치(100)는 제1 하우징(141) 및 제2 하우징(142)을 포함할 수 있다. 제1 하우징(141)은 고정된 하우징일 수 있으며, 제2 하우징(142)은 제1 하우징(141)에 대하여 이동 가능하도록 제1 하우징(141)에 연결 또는 결합될 수 있다.
일 실시 예에서, 디스플레이(110)는 제1 하우징(141) 및 제2 하우징(142) 상에 배치될 수 있으며, 제2 하우징(142)의 이동에 따라 전자 장치(100)의 외부로 보여지는 노출 영역이 확대 또는 축소될 수 있다.
일 실시 예에서, 제2 하우징(142)에는 카메라 모듈들이 배치되는 카메라 영역(130)이 존재할 수 있다. 예를 들어, 카메라 영역(130)에는 제1 카메라 모듈(131), 제2 카메라 모듈(132), 제3 카메라 모듈(133), 또는 제4 카메라 모듈(134)이 배치될 수 있다. 예를 들면, 제1 카메라 모듈(131)은 초광각 카메라를 포함할 수 있고, 제2 카메라 모듈(132)은 광각 카메라를 포함할 수 있고, 제3 카메라 모듈(133)은 망원 카메라를 포함할 수 있고, 제4 카메라 모듈(134)은 심도(depth) 카메라로서 적외선 발광부와 TOF(time of flight) 센서를 포함할 수 있다. 상술한 카메라 영역(130)에 배치되는 카메라 모듈들 및 포함되는 카메라의 종류는 예시이며, 이에 제한되지 않을 수 있다.
일 실시 예에서, 전자 장치(100)의 후면의 카메라 영역(130)에 배치되는 카메라 모듈들을 통해, 후면 방향의 이미지들을 획득할 수 있다.
도 2는, 일 실시 예에 따른, 전자 장치의 디스플레이가 확장됨에 따라, 디스플레이가 외부로 보여지는 노출 영역의 크기 변화를 나타내는 도면이다.
일 실시 예에 따르면, 상기 노출 영역은, 디스플레이(110)가 전자 장치(100)의 외부로 보여지는 영역(또는 시각적으로 노출되는 영역)을 의미할 수 있다. 예를 들어, 디스플레이(110)는 전자 장치(100)의 내부에 포함될 수 있으며, 전자 장치(100)의 외부에서 디스플레이(110)의 적어도 일부가 노출 영역으로서 보일 수 있다.
일 실시 예에 따르면, 도면 2-1은, 전자 장치(100)의 디스플레이(110)가 확장되는 모습을 나타낸다.
일 실시 예에서, 도면 2-1은, 전자 장치(100)의 전면의 모습을 나타낸다.
일 실시 예에서, 전자 장치(100)는 고정된 제1 하우징(141)과 제1 하우징(141)에 대해 이동 가능한 제2 하우징(142)을 포함할 수 있다. 제1 하우징(141)에 대해 제2 하우징(142)이 이동함에 따라 디스플레이(110)가 외부에 보여지는 영역(또는 노출 영역)이 변화(확대 또는 축소)될 수 있다.
일 실시 예에 따르면, 도면 2-2는, 전자 장치(100)의 후면의 모습을 나타낸다.
일 실시 예에서, 카메라 영역(130)은 제2 하우징(142)에 포함될 수 있다. 예를 들어, 카메라 영역(130)에는 적어도 하나의 카메라 모듈들이 포함될 수 있다.
일 실시 예에서, 복수의 카메라 모듈들(예: 제1 카메라 모듈(131), 제2 카메라 모듈(132), 제3 카메라 모듈(133), 또는 제4 카메라 모듈(134)) 중 적어도 하나는 제1 하우징(141) 및 제2 하우징(142)에 모두 결합될 수 있다. 예를 들어, 제3 카메라 모듈(133)은 제1 하우징(141) 및 제2 하우징(142)에 결합될 수 있고, 제2 하우징(142)의 이동에 따라 제3 카메라 모듈(133)의 적어도 일부가 함께 움직일 수 있다.
일 실시 예에서, 복수의 카메라 모듈들(예: 제1 카메라 모듈(131), 제2 카메라 모듈(132), 제3 카메라 모듈(133), 또는 제4 카메라 모듈(134)) 중 적어도 하나는 제1 하우징(141) 또는 제2 하우징(142)에 결합될 수 있다. 예를 들어, 제3 카메라 모듈(133)은 제1 하우징(141) 또는 제2 하우징(142) 중 적어도 하나에 결합되고, 제1 하우징(141) 및 제2 하우징(142)의 이동에 기반하여, 모터와 같은 동력 장치를 이용하여 제3 카메라 모듈(133)의 적어도 일부는 움직일 수 있다. 또 다른 예로, 제3 카메라 모듈(133)은 제1 하우징(141) 또는 제2 하우징(142) 중 적어도 하나에 결합되고, 제3 카메라 모듈(133)은 디스플레이(110)의 이동에 기반하여 이동하는 멀티바와 같은 구성에 연결되어, 제2 하우징(142)의 이동에 따라 제3 카메라 모듈(133)의 적어도 일부가 움직일 수 있다.
도 3은, 일 실시 예에 따른, 카메라 모듈을 포함하는 전자 장치의 구조를 간략하게 나타내는 도면이다.
일 실시 예에 따르면, 전자 장치(100)는 디스플레이(310), 프로세서(320), 카메라 모듈(330), 및/또는 메모리(340)를 포함할 수 있다.
일 실시 예에서, 디스플레이(310)는 도 1의 디스플레이(110)에 대응할 수 있으며, 카메라 모듈(330)은 도 1의 제1 카메라 모듈(131), 제2 카메라 모듈(132), 제3 카메라 모듈(133), 제4 카메라 모듈(134) 중 적어도 하나에 대응할 수 있다.
일 실시 예에서, 디스플레이(310)의 적어도 일부는 전자 장치(100)의 전면에 배치될 수 있다. 예를 들어, 디스플레이(310)의 적어도 일부는 전자 장치(100)의 전면에 시각적으로 노출될 수 있고, 노출되는 영역(또는 노출 영역)의 크기는 하우징의 움직임에 따른 디스플레이(310)의 확장에 따라 달라질 수 있다. 디스플레이(310)는 하우징(예: 제2 하우징(142))의 이동과 함께 움직일 수 있다.
일 실시 예에서, 프로세서(320)는, 디스플레이(310), 카메라 모듈(330), 또는 메모리(340)와 전기적으로 연결될 수 있으며, 디스플레이(310), 카메라 모듈(330), 또는 메모리(340)의 동작들을 제어할 수 있다.
일 실시 예에서, 카메라 모듈(330)은 복수의 카메라 모듈들(예: 제1 카메라 모듈(131), 제2 카메라 모듈(132), 제3 카메라 모듈(133), 또는 제4 카메라 모듈(134))을 포함할 수 있다. 예를 들어, 제1 카메라 모듈(131), 제2 카메라 모듈(132), 또는 제3 카메라 모듈(133)은 각각 서로 다른 화각을 가지는 카메라(예: 초광각 카메라, 광각 카메라, 또는 망원 카메라)를 포함할 수 있다. 제4 카메라 모듈(134)은 전자 장치(100)의 외부 물체들의 거리를 감지할 수 있다.
일 실시 예에서, 카메라 모듈들(예: 제1 카메라 모듈(131), 제2 카메라 모듈(132), 제3 카메라 모듈(133), 또는 제4 카메라 모듈(134))에 대한 상술한 설명은 예시이고, 이에 제한되지 않을 수 있다.
일 실시 예에서, 메모리(340)는, 광학 배율 및/또는 디스플레이(310)의 노출 영역의 크기에 대응하는 데이터를 저장하고 있을 수 있다. 예를 들어, 디스플레이(310)의 노출 영역의 크기 및/또는 설정된 광학 배율에 대응하는 렌즈들의 배열 상태에 관한 데이터(예: 배열 상태 데이터)를 저장하고 있을 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 디바이스 확장 센싱 모듈(350)을 더 포함할 수도 있다. 예를 들어, 디바이스 확장 센싱 모듈(350)은 하우징(예: 제2 하우징(142))의 이동 및/또는 하우징(예: 제2 하우징(142))의 이동에 따른 디스플레이(310)의 노출 영역의 크기 변화를 감지할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라 디바이스 확장 센싱 모듈(350)을 이용하여 디스플레이(310)의 노출 영역의 변화를 감지할 수 있다. 예를 들어, 전자 장치(100)는 프로세서(320)의 제어에 따라 디바이스 확장 센싱 모듈(350)을 통해 디스플레이(310)의 노출 영역의 확장 또는 축소를 감지할 수 있으며, 이에 따라 전자 장치(100)의 전면으로 노출되는 디스플레이(310)의 노출 영역의 크기에 대한 데이터를 획득할 수 있다.
일 실시 예에서, 전자 장치(100)의 프로세서(320)는 디바이스 확장 센싱 모듈(350)을 이용하여 하우징(예: 제2 하우징(142))의 이동을 감지할 수 있다. 예를 들어, 디바이스 확장 센싱 모듈(350)은 자력 측정 방식, 정전 방식, 광학 측정 방식, 물리적 측정 방식, 가변 저항 방식과 같은 방식으로 동작할 수 있다.
일 실시 예에서, 프로세서(320)는 홀 센서와 자석을 활용하여 자화된 금속의 위치 및 변위에 따른 자력 세기 및 방향 측정하는 자력 측정 방식으로 디스플레이(310)의 이동거리를 측정할 수 있다. 일 실시 예에서, 프로세서(320)는 하나 이상의 TSP(touch screen panel)와 금속 구조물을 이용하여 정전용량의 변화를 감지하는 정전 방식으로 디스플레이(310)의 이동거리를 측정할 수 있다. 일 실시 예에서, 프로세서(320)는 적외선(IR) 발광부와 IR 센서 또는 TOF 센서를 활용하여 이동 변위에 따른 적외선 반사 광량 또는 시간차 변화를 측정하는 광학 측정 방식으로 디스플레이(310)의 이동 거리를 측정할 수도 있다. 일 실시 예에서, 프로세서(320)는 카운터 스위치를 활용하여 스위치의 트리거링 개수를 측정하는 물리적 측정 방식으로 디스플레이(310)의 이동 거리를 측정할 수 있다. 일 실시 예에서, 프로세서(320)는 이동 변위에 따른 가변 저항의 변화 값을 ADC 데이터로 측정하는 가변 저항 방식으로 디스플레이(310)의 이동 거리를 측정할 수 있다. 일 실시 예에 따르면, 디스플레이(310)의 이동거리란, 도 1의 제2 하우징(142)이 제1 하우징(141)에 대해 이동한 거리, 또는 제2 하우징(142)이 제1 하우징(141)에 대해 이동함에 따라 디스플레이(310)의 노출 영역의 크기가 변화한 정도를 의미할 수 있다.
도 4는, 일 실시 예에 따른, 전자 장치의 디스플레이가 확장됨에 따른 카메라 모듈의 구조를 개념적으로 나타낸 도면이다.
일 실시 예에 따르면, 도면 4-1은, 전자 장치(100)의 디스플레이(예: 도 1의 디스플레이(110), 도 3의 디스플레이(310))가 확장되지 않은 상태의 구조를 나타낸다.
일 실시 예에서, 전자 장치(100)의 제1 하우징(141)에 대해 제2 하우징(142)이 이동하지 않은 상태에서는, 카메라 영역(130)에 포함된 카메라 모듈들 중 적어도 하나의 카메라 모듈(예: 제3 카메라 모듈(133))의 크기 또는 길이도 증가하지 않은 상태일 수 있다.
일 실시 예에 따르면, 도면 4-2는, 전자 장치(100)의 디스플레이(예: 디스플레이(110), 디스플레이(310))가 확장되는 상태의 구조를 나타낸다.
일 실시 예에서, 도면 4-1 내지 도면 4-2에 도시된 카메라 모듈들의 순서/위치는 예시이고, 이에 제한되지 않을 수 있다.
일 실시 예에서, 전자 장치(100)의 제1 하우징(141)에 대해 제2 하우징(142)이 이동한 상태에서는, 카메라 영역(130)에 포함된 카메라 모듈들 중 적어도 하나의 카메라 모듈(예: 제3 카메라 모듈(133))의 크기 또는 길이도 증가한 상태일 수 있다.
일 실시 예에서, 제2 하우징(142)이 제1 하우징(141)에 대하여 이동함으로써, 디스플레이(예: 도 1의 디스플레이(110), 도 3의 디스플레이(310))의 노출 영역이 확장될 수 있다. 디스플레이(예: 도 1의 디스플레이(110), 도 3의 디스플레이(310))의 노출 영역이 확장됨에 따라 전자 장치(100) 전면으로의 보여지는 디스플레이(예: 도 1의 디스플레이(110), 도 3의 디스플레이(310))의 영역(또는 노출 영역)이 증가할 수 있다.
일 실시 예에서, 제2 하우징(142)이 제1 하우징(141)에 대하여 이동함으로써, 디스플레이(예: 도 1의 디스플레이(110), 도 3의 디스플레이(310))가 외부에 보여지는 영역이 축소될 수 있다. 디스플레이(예: 도 1의 디스플레이(110), 도 3의 디스플레이(310))가 외부에 보여지는 영역이 축소됨에 따라 전자 장치(100) 전면으로의 보여지는 디스플레이(예: 도 1의 디스플레이(110), 도 3의 디스플레이(310))의 영역이 감소할 수 있다.
일 실시 예에서, 카메라 영역(130)에 포함된 카메라 모듈들 중 적어도 하나의 카메라 모듈(예: 제3 카메라 모듈(133))의 일단은 제1 하우징(141)과 결합될 수 있고, 다른 일단은 제2 하우징(142)에 결합될 수 있다.
도 5는 카메라 모듈의 전면 및 후면 구조의 일 실시 예를 나타내고, 도 6은 카메라 모듈의 측면 구조의 일 실시 예를 나타낸다.
일 실시 예에 따르면, 도 5 내지 도 6은, 카메라 모듈들(예: 제1 카메라 모듈(131), 제2 카메라 모듈(132), 제3 카메라 모듈(133), 또는 제4 카메라 모듈(134)) 중 적어도 하나의 카메라 모듈(예: 제3 카메라 모듈(133))의 구조를 나타낸다.
일 실시 예에서, 제3 카메라 모듈(133)은 망원 카메라를 포함하는 카메라 모듈일 수 있으며, 이하에서는 제3 카메라 모듈(133)을 예시로 카메라 구조를 설명할 수 있다. 다만, 카메라 구조에 대한 설명은 제1 카메라 모듈(131), 또는 제2 카메라 모듈(132)에 적용될 수도 있다.
일 실시 예에 따르면, 도면 5-1은, 외부에 보여지는 디스플레이(예: 디스플레이(110), 디스플레이(310))의 영역(또는 노출 영역)이 확장됨에 따라, 크기 또는 길이가 증가된 제3 카메라 모듈(133)을 전면에서 본 모습을 나타낸다.
일 실시 예에 따르면, 도면 5-2는, 디스플레이(예: 디스플레이(110), 디스플레이(310))의 노출 영역이 확장됨에 따라, 크기 또는 길이가 증가된 카메라 모듈(133)을 후면에서 본 모습을 나타낸다.
일 실시 예에 따르면, 도면 6-1 내지 도면 6-2는, 디스플레이(예: 디스플레이(110), 디스플레이(310))의 노출 영역이 확장됨에 따라, 크기 또는 길이가 증가된 카메라 모듈(133)을 측면에서 본 모습을 나타낸다.
일 실시 예에서, 제3 카메라 모듈(133)은 제1 카메라 홀더(510) 및 제1 카메라 홀더(510)에 대하여 이동 가능하도록 제1 카메라 홀더(510)에 연결된 제2 카메라 홀더(520)을 포함할 수 있다. 예를 들어, 제1 카메라 홀더(510)의 적어도 일부와 제2 카메라 홀더(520)의 적어도 일부는 연결(또는 결합)될 수 있으며, 제2 카메라 홀더(520)은 제1 카메라 홀더(510)에 대해 일정 거리만큼 이동 가능하도록 제1 카메라 홀더(510)에 연결될 수 있다.
일 실시 예에서, 제1 카메라 홀더(510)은 제1 브라켓(511)과 결합될 수 있다. 예를 들어, 제1 카메라 홀더(510)의 적어도 일부는 제1 브라켓(511)의 적어도 일부와 결합될 수 있고, 제1 브라켓(511)은 제1 카메라 홀더(510)의 적어도 일부를 둘러싸는 형태로 제1 카메라 홀더(510)과 결합될 수 있다.
일 실시 예에서, 제1 브라켓(511)은 제1 결합 홀(512)를 통해 제1 하우징(141)에 결합될 수 있다. 예를 들어, 제1 브라켓(511)은 제1 결합 홀(512)을 통해 제1 하우징(141)에 스크류 체결될 수 있다.
일 실시 예에서, 제2 카메라 홀더(520)은 제2 브라켓(521)과 결합될 수 있다. 예를 들어, 제2 카메라 홀더(520)의 적어도 일부는 제2 브라켓(521)의 적어도 일부와 결합될 수 있고, 제2 브라켓(521)은 제2 카메라 홀더(520)의 적어도 일부를 둘러싸는 형태로 제2 카메라 홀더(520)과 결합될 수 있다.
일 실시 예에서, 제2 브라켓(521)은 제2 결합 홀(523)를 통해 제2 하우징(142)에 결합될 수 있다. 예를 들어, 제2 브라켓(521)은 제2 결합 홀(523)을 통해 제2 하우징(142)에 스크류 체결될 수 있다.
일 실시 예에서, 제2 브라켓(521)에는 제1 브라켓(511)과 접촉 시에 완충 역할을 수행할 수 있는 완충 기재(522)가 배치될 수 있다. 예를 들어, 제3 카메라 모듈(133)의 확장 또는 축소 시에 제1 브라켓(511)과 제2 브라켓(521)의 마찰, 접촉으로 인한 손상을 방지하기 위해 완충 기재(522)가 배치될 수 있다.
일 실시 예에서, 제1 카메라 홀더(510) 및/또는 제2 카메라 홀더(520)의 내부에는 적어도 하나의 렌즈 및 경통이 배치될 수 있다.
일 실시 예에서, 제1 카메라 홀더(510) 및/또는 제2 카메라 홀더(520)에 포함된 렌즈들은 카메라 홀더들 내부에서 이동할 수 있도록 설계될 수 있다.
일 실시 예에서, 제1 카메라 홀더(510) 및/또는 제2 카메라 홀더(520)은 제1 브라켓(511) 및 제2 브라켓(521)에 접착 부재(예: 본드)를 통해 접착 영역(540)에 결합될 수 있다.
도 7은, 일 실시 예에 따른, 카메라 모듈이 전자 장치에 배치되는 형태를 나타내는 도면이다.
일 실시 예에 따르면, 도면 7-1은, 확장되지 않은 상태의 제3 카메라 모듈(133)이 전자 장치(100)에 결합된 상태를 나타낸다.
일 실시 예에서, 전자 장치(100)는 제1 하우징(141) 및 제2 하우징(142)을 포함할 수 있으며, 제1 하우징(141)에 대해 제2 하우징(142)이 이동 가능할 수 있다.
일 실시 예에서, 제2 하우징(142)에는 서로 다른 화각을 가지는 카메라를 포함하는 제1 카메라 모듈(131), 제2 카메라 모듈(132), 또는 제3 카메라 모듈(133)이 배치될 수 있고, 피사체의 거리를 감지하는 제4 카메라 모듈(134)이 배치될 수도 있다.
일 실시 예에서, 제3 카메라 모듈(133)은 제1 하우징(141) 및 제2 하우징(142)에 결합될 수 있다. 예를 들어, 제3 카메라 모듈(133)의 제1 카메라 홀더(510)에 제1 브라켓(511)이 접착 또는 고정될 수 있으며, 제1 브라켓(511)은 제1 하우징(141)에 제1 결합 홀(512)을 통해 스크류 체결될 수 있다. 또 다른 예로, 제3 카메라 모듈(133)은 제1 하우징(141), 또는 제2 하우징(142)에 포함된 지지 구조와 같은 구성에 결합될 수도 있다. 제3 카메라 모듈(133)의 제2 카메라 홀더(520)에 제2 브라켓(521)이 접착 또는 고정될 수 있으며, 제2 브라켓(521)은 제2 하우징(142)에 제2 결합 홀(523)을 통해 스크류 체결될 수 있다. 제3 카메라 모듈(133)은 브라켓(예: 제1 브라켓(511), 또는 제2 브라켓(521))과 하우징(예: 제1 하우징(141), 제2 하우징(142))의 결합을 통해, 제1 하우징(141) 및 제2 하우징(142)에 결합 또는 고정될 수 있다.
일 실시 예에서, 제3 카메라 모듈이(133)이 제1 하우징(141), 또는 제2 하우징(142)에 스크류를 이용하여 결합되는 것으로 설명되어 있으나, 이에 한정되는 것은 아니다. 예를 들어, 제3 카메라 모듈이(133)이 제1 하우징(141), 또는 제2 하우징(142)에 양면 테이프 또는 접착제와 같은 접착 부재를 통해 결합될 수 있다. 다른 예를 들면, 제3 카메라 모듈이(133)이 제1 하우징(141), 또는 제2 하우징(142)에 구조적인 설계를 통한 끼움 방식으로 결합될 수도 있다. 또한 제3 카메라 모듈이(133)이 제1 하우징(141), 또는 제2 하우징(142)에 연결 부재를 통해 결합될 수도 있다. 이 경우, 제1 결합 홀(512), 또는 제2 결합 홀(523)은 생략될 수도 있다.
일 실시 예에서, 도면 7-1의 전자 장치(100)의 제2 하우징(142)은 제1 하우징(141)에 대해서 이동하지 않은 상태이므로, 제3 카메라 모듈(133)은 확장되지 않은 상태로서, 제3 카메라 모듈(133)의 크기 또는 길이도 증가하지 않은 상태일 수 있다.
일 실시 예에 따르면, 도면 7-2는, 확장된 상태의 제3 카메라 모듈(133)이 전자 장치(100)에 결합된 상태를 후면에서 본 모습을 나타낸다.
일 실시 예에서, 도면 7-2의 전자 장치(100)의 제2 하우징(142)은 제1 하우징(141)에 대해서 제1 하우징(141)과 먼 방향으로 이동한 상태이므로, 제3 카메라 모듈(133)은 확장된 상태로서, 제3 카메라 모듈(133)의 크기 또는 길이도 증가한 상태일 수 있다. 예를 들어, 제1 카메라 홀더(510) 및 제2 카메라 홀더(520)가 형성하는 길이가 길어진 상태일 수 있다.
일 실시 예에서, 제3 카메라 모듈(133)에 고정된 제1 브라켓(511)은 제1 하우징(141)의 적어도 일부에 제1 결합 홀(512)을 통해 결합될 수 있고, 제2 브라켓(512)은 제2 하우징(142)의 적어도 일부에 제2 결합 홀(523)을 통해 결합될 수 있다.
일 실시 예에서, 제2 하우징(142)이 제1 하우징(141)에 대해 이동함으로써, 제2 하우징(142)에 결합된 제2 브라켓(512)도 결합된 상태로 함께 이동될 수 있다. 제1 브라켓(511)은 제1 하우징(141)에 고정되고 제2 브라켓(512)은 이동됨으로써, 제2 카메라 홀더(520)은 제1 카메라 홀더(510)에 대해 제2 브라켓(512)이 이동하는 방향으로 이동할 수 있다.
일 실시 예에 따르면, 도면 7-3은, 확장된 상태의 제3 카메라 모듈(133)이 전자 장치(100)의 제1 하우징(141)의 체결 홀(141-1)에 결합된 상태를 후면에서 본 모습을 나타내고, 도면 7-4는, 확장된 상태의 제3 카메라 모듈(133)이 제1 하우징(141)의 체결 홀(141-1)에 결합된 상태를 전자 장치(100)의 전면에서 투시하여 본 모습을 나타낸다.
일 실시 예에서, 제3 카메라 모듈(133)의 제1 브라켓(511)의 제1 결합 홀(512)은 제1 하우징(141)에 형성된 제1 체결 홀(141-1)을 통해 스크류 체결됨으로써 결합할 수 있다.
일 실시 예에서, 제1 브라켓(511)이 제1 결합 홀(512) 및 제1 체결 홀(141-1)을 통해 스크류 체결됨으로써, 제1 하우징(141)의 적어도 일부에 제1 브라켓(511)이 고정될 수 있다.
도 8은, 일 실시 예에 따른, 전자 장치가 디스플레이의 외부에 보여지는 영역의 변화를 식별하고, 변경된 카메라 모듈의 구조에 대응하는 렌즈들의 배열 상태를 변화시키는 흐름을 나타내는 도면이다.
일 실시 예에 따른, 도 8의 흐름에 있어서, 전자 장치가 렌즈들의 배열 상태를 변화시키는 개념을 간략하게 나타내는 도 9를 참조하여 설명한다.
일 실시 예에 따르면, 동작 810에서, 전자 장치(예: 도 3의 전자 장치(100))는 디스플레이(예: 도 3의 디스플레이(310))의 외부에 보여지는 영역의 크기를 식별할 수 있다.
일 실시 예에서, 제1 하우징(예: 제1 하우징(141))에 대하여 제2 하우징(예: 제2 하우징(142))이 이동함에 따라 디스플레이(310)도 함께 움직일 수 있다. 예를 들어, 제2 하우징(142)의 적어도 일부가 제1 하우징(141)에 대하여 디스플레이(310)가 확장되는 방향으로 이동(예: 인출)하면 디스플레이(310)의 외부로 보여지는 영역(또는 노출 영역)은 넓어질 수 있고, 제2 하우징(142)의 적어도 일부가 제1 하우징(141)에 대하여 디스플레이(310)가 축소되는 방향으로 이동(예: 삽입)되면 디스플레이(310)의 외부로 보여지는 영역(또는 노출 영역)은 축소될 수 있다. 다른 예를 들면, 도 7은 제2 하우징(142)의 적어도 일부가 제1 하우징(141)에 삽입되는 구조로 되어있으나, 제1 하우징(141)의 적어도 일부가 제2 하우징(142)에 삽입되는 구조로 구현될 수도 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라 디스플레이(310)의 외부에 보여지는 영역의 크기를 식별할 수 있다. 예를 들어, 전자 장치(100)의 프로세서(320)는 디스플레이(310)의 확장 정도에 대응하는 디스플레이(310)의 노출 영역의 크기를 식별할 수 있다. 예를 들어, 디스플레이(310)의 노출 영역의 크기는, 전자 장치(100)의 전면으로 보여지는 디스플레이(310)의 크기일 수 있다.
일 실시 예에서, 제1 하우징(141) 또는 제2 하우징(142)의 내부에 위치하는 디스플레이(310)의 적어도 일부가 제1 하우징(141) 또는 제2 하우징(142)의 외부로 이동되는 경우, 전자 장치(100)의 프로세서(320)는 디스플레이(310)의 노출 영역의 크기가 커지는 것을 식별할 수 있다. 일 실시 예에서, 제1 하우징(141) 또는 제2 하우징(142)의 외부에 위치하는 디스플레이(310)의 적어도 일부가 제1 하우징(141) 또는 제2 하우징(142)의 내부로 이동되는 경우, 전자 장치(100)의 프로세서(320)는 디스플레이(310)의 노출 영역의 크기가 작아지는 것을 식별할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 프로세서(320)는 디바이스 확장 센싱 모듈(350)을 이용하여 디스플레이(310)의 노출 영역의 크기를 확인할 수 있다.
일 실시 예에 따르면, 동작 820에서, 전자 장치(예: 전자 장치(100))는 검출된 디스플레이(310)의 노출 영역의 크기 및 카메라 모듈의 설정된 광학 배율을 만족시키는 렌즈들의 배열 상태를 식별할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 카메라 모듈(330)의 광학 배율을 식별할 수 있다. 예를 들어, 카메라 모듈(330)의 광학 배율은, 사용자 입력에 의해 설정된 광학 배율일 수 있다. 다른 예를 들면, 카메라 모듈(330)의 광학 배율은, 디스플레이(310)의 이동 동작에서 사용자 입력에 따라 변할 수도 있다. 또 다른 예로, 카메라 모듈(330)의 광학 배율은 제1 하우징(141)에 대한 제2 하우징(142)에 배치된 카메라 모듈(330)의 이동거리에 기반하여 결정될 수도 있다. 예컨대, 제2 하우징(142)에 배치된 카메라 모듈(330)의 이동거리가 클수록 광학 배율은 올라갈 수 있다. 카메라 모듈(330)의 이동 거리는 카메라 모듈(330)의 확장 정도를 의미할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 식별된 디스플레이(310)의 노출 영역의 크기 및/또는 카메라 모듈(330)의 광학 배율을 만족시키는 렌즈들의 배열 상태를 식별할 수 있다.
일 실시 예에서, 도 9를 참조하면, 도면 9-1 내지 도면 9-5는 디스플레이(310)의 노출 영역의 크기가 일정한 경우, 설정된 광학 배율을 만족시키는 렌즈들의 배열 상태를 나타낸다.
일 실시 예에서, 제1 렌즈 모듈(910), 제2 렌즈 모듈 (920), 제3 렌즈 모듈 (930), 제4 렌즈 모듈 (940) 및/또는 이미지 센서(950)가 광축을 따라 배열될 수 있다. 예를 들어, 전자 장치(100)에 입사된 광은 제1 렌즈 모듈(910), 제2 렌즈 모듈(920), 및 제3 렌즈 모듈(930), 및 제4 렌즈 모듈(940)를 거쳐서 이미지 센서(950)에 입사될 수 있다.
일 실시 예에서, 카메라 모듈(330)의 설정된 광학 배율은 도면 9-1에서 도면 9-5로 갈수록 고배율일 수 있다. 예를 들어, 도면 9-2는 도면 9-1보다 고배율일 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 카메라 모듈(330)의 광학 배율을 만족시키는 렌즈들의 배열 상태를 식별할 수 있다. 예를 들어, 전자 장치(100)의 프로세서(320)는 디스플레이(310)의 노출 영역의 크기 및 광학 배율을 만족시키는 렌즈들의 배열 상태를 도면 9-1 내지 도면 9-5와 같이 식별할 수 있다.
일 실시 예에서, 전자 장치(100)의 프로세서(320)가 식별하는 디스플레이(310)의 노출 영역의 크기 및 광학 배율을 만족시키는 렌즈들의 배열 상태는, 메모리(340)에 시뮬레이션을 기반으로 테이블화되어 저장되어 있을 수 있다.
일 실시 예에 따르면, 동작 830에서, 전자 장치(예: 전자 장치(100))는 렌즈 모듈들을 식별된 배열 상태가 되도록 이동시킬 수 있다.
일 실시 예에서, 전자 장치(100)의 프로세서(320)는, 현재의 렌즈들이 동작 820에서 식별한 렌즈들의 배열 상태가 되도록 이동시킬 수 있다.
상술한 제1 렌즈 모듈(910), 제2 렌즈 모듈(920), 제3 렌즈 모듈(930), 제4 렌즈 모듈(940) 및/또는 이미지 센서(950)의 배치 및/또는 개수는 설명의 편의를 위한 예시이고, 이에 제한되지 않을 수 있다. 렌즈 모듈들(예: 1 렌즈 모듈(910), 제2 렌즈 모듈(920), 제3 렌즈 모듈(930), 제4 렌즈 모듈(940))은 적어도 하나 이상의 렌즈를 포함할 수 있다.
도 10은, 일 실시 예에 따른, 전자 장치가 광학 배율 및 변화된 카메라 홀더의 길이를 식별하고, 이를 사전 저장된 데이터와 비교하는 흐름을 나타내는 도면이다.
일 실시 예에 따른 도 10의 흐름도에 대한 설명은, 도 8의 동작 810 내지 동작 820에 대응하는 전자 장치(100)의 동작을 더 구체화한 설명일 수 있다.
일 실시 예에 따르면, 동작 1010에서, 전자 장치(100)는 프로세서(320)의 제어에 따라 카메라 모듈(330)의 설정된 광학 배율을 확인할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 카메라 모듈(330)의 광학 배율을 확인할 수 있다. 카메라 모듈(330)의 광학 배율은, 사용자가 미리 설정한 배율일 수도 있고 전자 장치(100)의 사용 중에 사용자가 변경한 배율일 수도 있다.
일 실시 예에서, 동작 1010에서, 동작하는 시점은 하나의 예시일 뿐이고 이에 제한되지 않을 수 있다.
일 실시 예에 따르면, 동작 1020에서, 전자 장치(100)는 프로세서(320)의 제어에 따라 디스플레이(310)의 노출 영역의 크기에 대응하는 카메라 홀더의 길이(예: 제1 카메라 홀더(510) 및 제2 카메라 홀더(520)에 의해 형성되는 총 길이)를 식별할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 제1 하우징(예: 제1 하우징(141))에 대해 제2 하우징(예: 제2 하우징(142))이 이동함에 따른 디스플레이(310)의 노출 영역의 확장 또는 축소를 감지할 수 있다. 프로세서(320)는 디스플레이(310)의 이동에 따른 디스플레이(310)의 노출 영역의 크기를 식별할 수 있으며, 노출 영역의 크기에 대응하는 카메라 모듈(또는 카메라 홀더)의 확장 길이도 식별할 수 있다. 상술한 카메라 모듈의 길이는, 예를 들어, 제1 카메라 홀더(510) 및 제2 카메라 홀더(520)에 의해 형성되는 총 길이일 수 있다. 일 실시 예에서, 전자 장치(100)는 제1 하우징(예: 제1 하우징(141))에 대해 제2 하우징(예: 제2 하우징(142))이 이동함에 따라, 카메라 모듈에 포함된 센서를 이용하여 카메라 모듈의 확장 길이를 식별할 수도 있다.
일 실시 예에 따르면, 동작 1030에서, 전자 장치(100)는 프로세서(320)의 제어에 따라 식별된 카메라 홀더의 길이 및 설정된 광학 배율을, 저장된 렌즈들의 배열 상태에 관한 데이터와 비교할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 식별된 카메라 홀더 길이 및 광학 배율에 관한 데이터를 저장된 렌즈들의 배열 상태에 관한 데이터와 비교할 수 있다. 예를 들어, 프로세서(320)는 식별된 카메라 홀더의 길이 및 광학 배율에 대응하는 저장된 렌즈들의 배열 상태에 관한 데이터와 비교함으로써, 식별된 카메라 홀더의 길이 및 확인된 광학 배율을 만족시키는 렌즈들의 배열 상태를 식별할 수 있다.
일 실시 예에서, 전자 장치(100)의 프로세서(320)는, 식별된 카메라 홀더의 길이 및 확인된 광학 배율을 만족시키는 렌즈들의 배열 상태를 식별하고, 동작 830과 같이, 카메라 홀더(예: 제1 카메라 홀더(510), 제2 카메라 홀더))에 포함된 렌즈들을 식별된 배열 상태가 되도록 이동시킬 수 있다.
일 실시 예에서, 렌즈들은 VCM(voice coil motor)이나 압전 액추에이터와 같은 구동 방식으로 이동될 수 있으며, 이에 제한되지 않는다.
다양한 실시 예에 따른, 렌즈들의 이동에 대한 설명은 이후의 도면을 참조하여 후술한다.
도 11은, 일 실시 예에 따른, 카메라 모듈에 포함된 렌즈를 이동시키는 원리를 설명하는 도면이다.
일 실시 예에 따르면, 도 11은, 렌즈들의 이동에 있어서 VCM 방식 중 폐쇄 회로(close loop) 방식을 나타낸다.
일 실시 예에서, 렌즈(lens barrel)에 자석(magnet)이 부착될 수 있고, 자석의 위치에 대응하는 위치의 카메라 홀더(예: 도 5의 제1 카메라 홀더(510), 또는 제2 카메라 홀더(520))에 코일(coil)이 배치될 수 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 코일에 흐르는 전류를 제어할 수 있으며, 코일에 흐르는 전류에 의해 렌즈의 위치가 이동될 수 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 홀 센서(hall IC sensor)를 통해 렌즈의 위치를 식별할 수 있다. 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 식별된 렌즈의 위치를 구동 회로(driver IC)에 전달하여 렌즈 위치를 보정함으로써, 렌즈들의 최적화된 위치를 얻을 수 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))는, 이미지 센서(image sensor)에서 획득한 이미지에 기반하여 프로세서(예: 프로세서(320)) 또는 ISP를 이용하여 초점이 맞는지 여부를 판단할 수 있다. 초점이 정확하게 맞지 않는 경우, 전자 장치(예: 전자 장치(100))는 프로세서(예: 프로세서(320)) 또는 ISP의 제어에 따라, 구동 회로에 렌즈 이동을 요청할 수 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))는, 하나 또는 다수의 코일 및 홀 센서를 이용하여, 렌즈들을 이동시킬 수 있다.
다양한 실시 예에서, 상술한 이동 방식은, 렌즈의 이동만이 아니라, 렌즈가 포함된 렌즈 모듈 또는 카메라 홀더의 이동에도 적용될 수 있다.
도 12는, 일 실시 예에 따른, 카메라 모듈의 확장에 따른 카메라 홀더의 길이 변경과 이에 포함된 렌즈를 이동시키는 모습을 나타내는 도면이다.
일 실시 예에서, 도 12에 따른 카메라 모듈은, 도 5 내지 도 6의 카메라 모듈(예: 도 1의 제3 카메라 모듈(133))에 대응할 수 있으며, 렌즈들이 이동하는 관점에서 설명의 편의를 위해 일부 구성들이 생략되어 도시될 수 있다.
일 실시 예에서, 도 12의 카메라 모듈 내의 렌즈들의 이동은, 프로세서(예: 도 5의 프로세서(320))에 의해 제어될 수 있다.
일 실시 예에서, 도 12에 따른 카메라 모듈은, 제1 카메라 홀더(1210)(예: 도 5의 제1 카메라 홀더(510)) 및 제2 카메라 홀더(1220)(예: 도 5의 제2 카메라 홀더(520))를 포함할 수 있다. 제1 카메라 홀더(1210) 및 제2 카메라 홀더(1220)는 서로 이동 가능하도록 연결(또는 결합)될 수 있다.
일 실시 예에서, 제1 카메라 홀더(1210)의 일단에는 이미지 센서(1211)가 배치될 수 있다. 이미지 센서(1211)는 입사 렌즈 모듈(1222), 프리즘 렌즈 모듈(1221), 제1 렌즈 모듈(1230), 제2 렌즈 모듈(1243), 또는 제3 렌즈 모듈(1253)을 통과한 광을 획득할 수 있다.
일 실시 예에서, 제1 카메라 홀더(1210) 및/또는 제2 카메라 홀더(1220)가 형성하는 공간 내에, 제1 자석(1242)이 부착된 제2 렌즈 모듈(1243) 및/또는 제2 자석(1252)이 부착된 제3 렌즈 모듈(1253), 이 적어도 배치될 수 있다.
일 실시 예에서, 제2 렌즈 모듈(1243)은 제2 캐리어(1240) 내에 배치될 수 있으며, 제3 렌즈 모듈(1253)은 제3 캐리어(1250) 내에 배치될 수 있다.
일 실시 예에서, 이미지 센서(1211), 제2 렌즈 모듈(1243), 및 제3 렌즈 모듈(1253)은 제1 광축을 따라 배치될 수 있다.
일 실시 예에서, 제2 렌즈 모듈(1243), 및 제3 렌즈 모듈(1253)은 제1 광축 방향으로 이동할 수 있다. 예를 들어, 제2 렌즈 모듈(1243) 및 제3 렌즈 모듈(1253)은, 자석들(1252, 1242), 코일 및 홀 센서로 형성되는 구동부(1251, 1241)에 기반한 VCM 방식에 의해 제1 광축 방향으로 이동할 수 있다.
일 실시 예에서, 구동부(1241, 1251)는 캐리어(예: 제2 캐리어(1240), 제3 캐리어(1250))와 카메라 홀더(1210, 1220) 사이에 배치될 수 있다. 예를 들어, 제1 카메라 홀더(1210)의 내측에 제1 구동부(1251)가 배치될 수 있다. 제2 카메라 홀더(1220)의 내측에 제2 구동부(1241)가 배치될 수 있다. 구동부(1241, 1251) 내의 코일에 흐르는 전류는 캐리어(예: 제2 캐리어(1240), 제3 캐리어(1250)) 내의 자석들(1242, 1252)에 영향을 줄 수 있다.
일 실시 예에서, 제2 카메라 홀더(1220)에는 제1 렌즈 모듈(1230)이 배치될 수 있다. 예를 들어, 제1 렌즈 모듈(1230)은 제1 광축 상에 배치될 수 있다.
일 실시 예에서, 프리즘 렌즈 모듈(1221)은 제2 카메라 홀더(1220)의 일단에 배치될 수 있다. 프리즘 렌즈 모듈(1221)은 제1 광축 상의 제1 렌즈 모듈(1230)과 인접하게 배치될 수 있다. 또 다른 예로, 프리즘 렌즈 모듈(1221)은 제2 카메라 홀더(1220)이 외부의 광이 통과할 수 있는 홀에 배치된 입사 렌즈 모듈(1222)과 인접하게 배치될 수 있다.
일 실시 예에서, 프리즘 렌즈 모듈(1221)과 입사 렌즈 모듈(1222)은 제1 광축과 수직한 제2 광축 상에 배열될 수 있다. 예를 들어, 프리즘 렌즈 모듈(1221)은 제1 광축과 제2 광축이 직교하는 지점에 배치될 수 있다. 예를 들어, 프리즘 렌즈 모듈(1221)은 입사 렌즈 모듈(1222)을 통해 제2 광축을 따라 입사된 광을 제1 광축 방향으로 회절시킬 수 있다.
일 실시 예에서, 프리즘 렌즈 모듈(1221)은 손떨림 방지(OIS, optical image stabilization) 기능을 포함할 수도 있다. 예를 들어, 전자 장치(예: 전자 장치(100))는 프로세서(320)의 제어에 따라, 프리즘 렌즈 모듈(1221)이 OIS를 수행하도록 할 수 있다.
일 실시 예에서, 프리즘 렌즈 모듈(1221)의 손떨림 방지(OIS, optical image stabilization) 기능은 생략될 수도 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 구동부(1241, 1251)의 코일에 흐르는 전류를 제어할 수 있다. 프로세서(예: 프로세서(320))가 코일의 전류를 제어함으로써 자석들(1242, 1252)의 움직임을 제어할 수 있으며, 자석들(1242, 1252)이 이동함으로써 렌즈 모듈들(1243, 1253)도 함께 이동할 수 있다. 예를 들어, 프로세서(예: 프로세서(320))는 압전 액추에이터(미도시)를 제어함으로써 캐리어(예: 제2 캐리어(1240), 제3 캐리어(1250))를 선형으로 이동시킬 수 있다. 프로세서(예: 프로세서(320))는 캐리어(예: 제2 캐리어(1240), 제3 캐리어(1250)) 내의 렌즈 모듈(예: 제2 렌즈 모듈(1243), 제3 렌즈 모듈(1253))을 VCM 방식을 통해 이동시킬 수 있다. 또한 프로세서(예: 프로세서(320))는 캐리어(예: 제3 캐리어(1430))를 압전 액추에이터로 이동시키고, 캐리어(예: 제2 캐리어(1240), 제3 캐리어(1250)) 내부의 렌즈 모듈들(예: 제2 렌즈 모듈(1243), 제3 렌즈 모듈(1253))은 VCM으로 위치를 미세 조정함으로써, 초점을 맞출 수도 있다.
도 13은, 일 실시 예에 따른, 카메라 모듈에 포함된 렌즈를 이동시키는 방법 중에 하나인 압전 액추에이터의 원리를 나타내는 도면이다.
일 실시 예에서, 도 13은, 렌즈들을 압전 리니어 액추에이터(ultrasonic linear actuator, 이하에서는 '압전 액추에이터')를 이용하여 이동시키는 방법을 설명하기 위한 도면일 수 있다.
일 실시 예에서, 도면 13-1을 참조하면, 압전 액추에이터(1300)는 탄성 재료(elastic material)을 포함하는 탄성부(1310), 압전 세라믹(piezoelectric ceramic)(1320), 또는 샤프트(1330)를 포함할 수 있다.
일 실시 예에서, 탄성부(1310)는 압전 세라믹(1320)에 의해 일면 및 타면이 덮인 형태일 수 있으며, 탄성부(1310)의 일면을 덮는 압전 세라믹(1320) 상에 샤프트(1330)가 결합되어 있을 수 있다.
일 실시 예에서, 한쪽 방향으로 분극된 압전 세라믹(1320)에 전계를 인가하면 분극 방향과 인가된 전계 방향에 따라 압전 세라믹(1320)에 수축 또는 팽창 운동(또는 진동)이 발생할 수 있고, 압전 액추에이터(1300)가 진동할 수 있다.
일 실시 예에서, 도면 13-2 내지 도면 13-3을 참조하면, 압전 액추에이터(1300)의 압전 세라믹(1320)이 수축 또는 팽창됨으로써, 위쪽으로 d1 또는 아래쪽으로 d2만큼 샤프트(1330)가 이동할 수 있다. 상술한 d1, d2는 예시이고, d1 및 d2는 같은 값일 수도 있고, 다른 값일 수도 있다.
일 실시 예에서, 도면 13-4를 참조하면, 압전 액추에이터(1300)의 샤프트(1330)는 진동하면서 d1, d2만큼 상하로 이동할 수 있으며, 이와 같은 상하 진동은 반복되거나 제어될 수 있다.
일 실시 예에서, 압전 액추에이터(1300)의 샤프트(1330)는 전진 동작 및/또는 후진 동작을 수행할 수 있다. 예를 들어, 압전 액추에이터(1300)의 샤프트(1330)의 전진 동작은, 샤프트(1330)를 느리게 앞으로 전진시키고 빠르게 샤프트(1330)를 원 위치로 복귀시키는 동작을 의미할 수 있다.
일 실시 예에서, 압전 액추에이터(1300)의 샤프트(1330)의 후진 동작은, 샤프트(1330)를 빠르게 앞으로 전진시키고 느리게 샤프트(1330)를 원 위치로 복귀시키는 동작을 의미할 수 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 압전 액추에이터(1300)의 압전 세라믹(1320)에 인가되는 전계를 제어할 수 있으며, 상기 제어에 따라 샤프트(1330)의 이동을 제어할 수 있다.
도 14는, 일 실시 예에 따른, 카메라 모듈의 구조 변화를 나타내는 도면이다. 구체적으로, 도 14는, 도 12의 카메라 모듈을 구체적으로 구현한 모습을 나타낼 수 있다.
일 실시 예에 따르면, 도면 14-1은 제3 카메라 모듈(133)이 확장되기 이전의 상태를 나타내고, 도면 14-2는 제3 카메라 모듈(133)이 확장된 상태를 나타낸다.
일 실시 예에 따르면, 도면 14-1 내지 도면 14-2의 제3 카메라 모듈(133)은 도 5 내지 도 6의 제3 카메라 모듈(133)에 대응할 수 있다.
일 실시 예에서, 제1 카메라 홀더(510) 및 제2 카메라 홀더(520)가 형성하는 공간의 내부에는 제1 캐리어(1410), 제2 캐리어(1420), 또는 제3 캐리어(1430)가 배치될 수 있다. 일 실시 예에서, 제1 캐리어(1410), 제2 캐리어(1420), 또는 제3 캐리어(1430)는 동일한 광축 상에 배치될 수 있다.
일 실시 예에서, 제1 캐리어(1410), 제2 캐리어(1420), 및 제3 캐리어(1430)는 적어도 하나의 렌즈를 포함하는 렌즈 모듈을 포함할 수 있다.
일 실시 예에서, 제1 캐리어(1410)는 제2 카메라 홀더(520) 내에 배치될 수 있다. 예를 들어, 제1 캐리어(1410)는 제2 카메라 홀더(520) 내에 고정될 수 있다.
일 실시 예에서, 제1 압전 액추에이터(1421)(예: 도 13의 압전 액추에이터(1300))는 제1 카메라 홀더(510) 및 제2 카메라 홀더(520)이 형성하는 내부 공간의 적어도 일부에 배치될 수 있다. 예를 들어, 제1 압전 액추에이터(1421)는 제1 캐리어(1410)이 위치하는 측에 근접하게 배치될 수 있다.
일 실시 예에서, 제1 압전 액추에이터(1421)의 적어도 일부는 제2 캐리어(1420)의 제1 홀, 제3 캐리어(1430)를 관통하는 제4 홀에 배치될 수 있다. 예를 들어, 제1 압전 액추에이터(1421)의 샤프트(예: 도 13의 샤프트(1330))는 제2 캐리어(1420)의 제1 홀, 제3 캐리어(1430)를 관통하는 제4 홀에 배치될 수 있다. 일 실시 예에서, 제1 압전 액추에이터(1421)가 배치되는 홀에 있어서, 제2 캐리어(1420)의 제1 홀의 직경 보다 제3 렌즈 모듈(1430)의 제4 홀의 직경이 더 클 수 있다. 예를 들어, 홀이 원형인 경우, 제2 캐리어(1420)의 제1 홀의 지름 보다 제3 렌즈 모듈(1430)의 제4 홀의 지름이 더 클 수 있다. 이 경우에, 제1 압전 액추에이터(1421)가 진동하는 경우, 제2 렌즈 모듈(1420)이 진동으로 인해 이동할 수 있다.
일 실시 예에서, 제2 압전 액추에이터(1431)는 제1 카메라 홀더(510) 및 제2 카메라 홀더(520)이 형성하는 내부 공간의 적어도 일부에 배치될 수 있다. 예를 들어, 제2 압전 액추에이터(1431)는 제3 캐리어(1430)가 위치하는 측에 근접하게 배치될 수 있다.
일 실시 예에서, 제2 압전 액추에이터(1431)의 적어도 일부는 제2 캐리어(1420)의 제2 홀, 또는 제3 캐리어(1430)를 관통하는 제3 홀에 배치될 수 있다. 예를 들어, 제2 압전 액추에이터(1431)의 샤프트(예: 도 13의 샤프트(1330))는 제2 캐리어(1420)의 제2 홀, 제3 캐리어(1430)을 관통하는 제3 홀에 배치될 수 있다. 일 실시 예에서, 제2 압전 액추에이터(1431)가 관통하는 홀에 있어서, 제3 캐리어(1430)의 제3 홀보다 제2 캐리어(1420)의 제2 홀이 더 클 수 있다. 예를 들어, 홀이 원형인 경우, 제3 캐리어(1430)의 제3 홀의 지름 보다 제2 캐리어(1420)의 제2 홀의 지름이 더 클 수 있다. 이 경우에, 제2 압전 액추에이터(1431)가 진동하는 경우, 제3 캐리어(1420)가 진동으로 인해 이동할 수 있다.
도 15는, 일 실시 예에 따른, 카메라 모듈의 렌즈 모듈 및 캐리어에 관한 구조를 나타내는 도면이다.
일 실시 예에 따르면, 도면 15-1은 렌즈 모듈 및 캐리어(예: 도 14의 제3 캐리어(1430), 또는 제2 캐리어(1420))에 관한 구조의 사시도를 나타내고, 도면 15-2는 렌즈 모듈 및 캐리어(예: 도 14의 제3 캐리어(1430), 또는 제2 캐리어(1420))에 관한 구조의 분해 사시도를 나타낸다.
일 실시 예에서, 제1 캐리어(1430-1), 제2 캐리어(1430-2)는 렌즈 모듈(1432)을 감싸면서 외곽을 형성할 수 있다. 예를 들어, 제1 캐리어(1430-1)는 렌즈 모듈(1432)을 감싸면서 상부 외곽을 형성할 수 있으며, 제2 캐리어(1430-2)는 렌즈 모듈(1432)을 감싸면서 하부 외곽을 형성할 수 있다.
일 실시 예에서, 제2 캐리어(1430-2)에는 압전 액추에이터(예: 제1 압전 액추에이터(1421), 제2 압전 액추에이터(1431))가 배치되기 위한 홀들(1430-3-1, 1430-3-2)이 형성될 수 있다.
일 실시 예에서, 캐리어(1430-1, 1430-2)의 내부에는 렌즈 모듈(1432)이 배치될 수 있다. 렌즈 모듈(1432)의 양 측면에는 자석(1433)이 부착될 수 있다. 렌즈 모듈(1432)은 적어도 하나 이상의 렌즈를 포함할 수 있다.
일 실시 예에서, 렌즈 모듈(1432)과 제2 캐리어(1430-2) 사이에는, 렌즈 모듈(1432)이 제2 캐리어(1430-2) 상에서 이동하기 위한 볼(1434)이 배치될 수 있다.
일 실시 예에서, 제2 캐리어(1430-2)의 외부에는 PCB 및 홀 센서(1430-4), 및/또는 코일(1430-5)이 배치될 수 있다. 예를 들어, PCB 및 홀 센서(1430-4)는 제2 캐리어(1430-2)의 외곽의 적어도 일부를 둘러싸는 형태로 배치될 수 있다. 또한 코일(1430-5)은 PCB 및 홀 센서(1430-4)와 연결될 수 있고, 자석(1433)의 위치에 대응하는 위치에 배치될 수 있다.
일 실시 예에서, 제1 캐리어(1430-1) 및/또는 제2 캐리어(1430-2)가 상부/하부에서 렌즈 모듈(1432)를 감싸면서 외곽을 형성하는 캐리어는 도 14의 제3 캐리어(1430) 또는 제2 캐리어(1420)에 대응할 수 있다.
일 실시 예에서, 제2 캐리어(1430-2)에 형성된 홀들(1430-3-1, 1430-3-2)은, 도 14의 제2 캐리어(1420) 또는 제3 캐리어(1430)에 형성된 홀들에 대응할 수 있다. 예를 들어, 홀(1430-3-1)은 제2 캐리어(1420)의 제1 홀에 대응할 수 있고, 홀(1430-3-2)은 제2 캐리어(1420)의 제2 홀에 대응할 수 있다. 다른 예를 들면, 홀(1430-3-1)은 제3 캐리어(1430)의 제4 홀에 대응할 수 있고, 홀(1430-3-2)은 제3 캐리어(1430)의 제3 홀에 대응할 수 있다.
도 16은, 일 실시 예에 따른, 카메라 모듈의 렌즈 모듈 및 캐리어에 관한 구조를 A-A' 라인을 따라 절단한 단면을 나타내는 도면이다.
일 실시 예에서, 렌즈 모듈 및 캐리어에 관한 구조의 단면을 나타내는 도 16을 참조하면, 자석(1433)과 코일(1430-5)은 서로 대응하는 위치에 배치될 수 있다.
일 실시 예에서, 볼(1434)은 제2 캐리어(1430-2) 및 렌즈 모듈(1432)에 모두 접촉하도록 배치될 수 있다.
일 실시 예에서, 제2 캐리어(1430-2)에는 압전 액추에이터(예: 제1 압전 액추에이터(1421), 또는 제2 압전 액추에이터(1431))가 배치되기 위한 홀들(1430-3-1, 1430-3-2)이 형성될 수 있다.
일 실시 예에서, 홀(1430-3-1)에는 제1 압전 액추에이터(1421)가 배치될 수 있고, 홀(1430-3-2)에는 제2 압전 액추에이터(1431)가 배치될 수 있다.
일 실시 예에서, 도 15 내지 도 16을 참조하여 상술한 렌즈 모듈 및 캐리어에 관한 구조는, 제2 캐리어(1420), 또는 제3 캐리어(1430)에 모두 적용될 수 있다.
도 17은, 일 실시 예에 따른, 카메라 모듈의 구조 변화에 따라 캐리어 및 렌즈 모듈이 이동하는 모습을 나타내는 도면이다.
일 실시 예에서, 도 17은, 압전 액추에이터(예: 제1 압전 액추에이터(1421), 또는 제2 압전 액추에이터(1431))에 의해 캐리어(예: 제2 캐리어(1420), 또는 제3 캐리어(1430))가 이동하는 모습을 나타낸다.
일 실시 예에서, 압전 액추에이터(예: 제1 압전 액추에이터(1421), 또는 제2 압전 액추에이터(1431))에 의해 캐리어(예: 제2 캐리어(1420), 제3 캐리어(1430))가 이동함에 따라, 캐리어(예: 제2 캐리어(1420), 제3 캐리어(1430))에 포함된 렌즈 모듈들도 이동할 수 있다.
일 실시 예에서, 도 17에 따른 카메라 모듈의 구조에 있어서, 설명의 편의를 위하여 일부 구성이 생략되어 도시될 수 있다.
일 실시 예에서, 제1 카메라 홀더(510) 및/또는 제2 카메라 홀더(520)의 길이가 확장되지 않은 상태에서는, 제2 캐리어(1420) 또는 제3 캐리어(1430)가 이동할 수 있는 거리는 제1 카메라 홀더(510) 및/또는 제2 카메라 홀더(520)의 길이가 확장된 상태보다 짧을 수 있다. 예를 들어, 제1 카메라 홀더(510) 및/또는 제2 카메라 홀더(520)의 길이가 확장 되지 않은 상태에서는, 제2 캐리어(1420) 또는 제3 캐리어(1430)는 거의 이동을 하지 않고, 제2 캐리어(1420) 또는 제3 캐리어(1430)에 포함된 렌즈 모듈(예: 도 15의 렌즈 모듈(1432))만 자석(예: 도 15의 자석(1433)) 및 코일(예: 도 15의 코일(1430-5))을 이용하여 이동할 수 있다.
일 실시 예에서, 제2 캐리어(1420)는 제1 압전 액추에이터(1421)의 진동에 의해 이동될 수 있다. 예를 들어, 프로세서(예: 프로세서(320))의 제어에 따라 전계가 인가되면, 제1 압전 액추에이터(1421)는 진동할 수 있으며 이에 따라 제2 캐리어(1420)가 선형으로 이동할 수 있다. 일 실시 예에 따르면, 제2 캐리어(1420)가 제1 압전 액추에이터(1421)의 샤프트 길이에 대응하는 만큼 이동할 수 있다.
일 실시 예에서, 제3 캐리어(1430)는 제2 압전 액추에이터(1431)의 진동에 의해 이동될 수 있다. 예를 들어, 프로세서(예: 프로세서(320))의 제어에 따라 전계가 인가되면, 제2 압전 액추에이터(1431)은 진동할 수 있으며 이에 따라 제3 캐리어(1430)가 선형으로 이동할 수 있다. 일 실시 예에 따르면, 제3 캐리어(1430)가 제2 압전 액추에이터(1431)의 샤프트 길이에 대응하는 만큼 이동할 수 있다.
도 18은, 일 실시 예에 따른, 카메라 모듈에 포함된 렌즈 모듈 및 렌즈를 이동시키는 개념을 간략하게 나타내는 도면이다.
일 실시 예에서, 도 18은, 압전 액추에이터를 이용한 렌즈 모듈의 이동 및 VCM 방식을 이용한 렌즈의 이동을 설명하기 위해 간략하게 나타낸 개념도일 수 있다.
일 실시 예에서, 프로세서(예: 프로세서(320))는 캐리어(예: 제3 캐리어(1430))를 압전 액추에이터(예: 제2 압전 액추에이터))를 제어함으로써 선형으로 이동시킬 수 있다.
일 실시 예에서, 프로세서(예: 프로세서(320))는 캐리어(예: 제3 캐리어(1430)) 내의 렌즈 모듈을 VCM 방식을 통해 이동시킬 수 있다. 예를 들어, 프로세서(320)는 코일(예: 1810, 1820, 1830)에 흐르는 전류를 제어함으로써, 자석(1811, 1821, 1831)이 부착된 렌즈 모듈의 이동을 제어할 수 있다.
일 실시 예에서, 프로세서(예: 프로세서(320))는 캐리어(예: 제3 캐리어(1430))를 압전 액추에이터로 이동시키고, 캐리어(예: 제3 캐리어(1430)) 내부의 렌즈 모듈들은 VCM으로 위치를 미세 조정함으로써, 초점을 정확하게 맞출 수 있다.
도 19는, 일 실시 예에 따른, 카메라 모듈이 기본 상태일 때 내부의 렌즈 모듈들을 광학 배율에 따라 이동시키는 모습을 나타내는 도면이다.
일 실시 예에 따르면, 도면 19-1은, 카메라 모듈(예: 제3 카메라 모듈(133))이 확장되기 전 상태의 구조를 나타낸다.
일 실시 예에 따르면, 도면 19-2 내지 도면 19-3은 카메라 모듈(예: 제3 카메라 모듈(133))이 확장되기 전 상태에서, 각각 다른 광학 배율이 설정된 경우의 렌즈 모듈들의 위치를 나타낸다.
일 실시 예에서, 렌즈 모듈들은 캐리어(예: 1410, 1420, 1430)에 포함될 수 있으며, 캐리어(예:1410, 1420, 1430)의 이동과 함께 이동할 수 있다.
일 실시 예에서, 광학 배율이 3배율인 도면 19-2의 경우보다 광학 배율이 4배율인 도면 19-3의 경우에 렌즈 모듈(예: 제2 렌즈 모듈)을 포함하는 제2 캐리어(1420)가 렌즈 모듈(예: 제1 렌즈 모듈)을 포함하는 제1 캐리어(1410)에 더 근접하게 위치할 수 있다. 예를 들어, 광학 배율이 높을수록 제2 캐리어(1420)와 제3 캐리어(1430) 사이의 거리는 멀어질 수 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 카메라 모듈(예: 제3 카메라 모듈(133))의 변화된 길이를 식별하고, 도면 19-2 내지 도면 19-3과 같은 설정된 광학 배율(예: 3배율, 4배율)을 만족시키는 캐리어 및/또는 렌즈 모듈들의 배열 상태를 식별할 수 있다. 또한, 프로세서(예: 프로세서(320))는 상기 배열 상태가 되도록, 캐리어들(1420, 1430) 및 렌즈 모듈들을 이동시킬 수 있다.
도 20은, 일 실시 예에 따른, 카메라 모듈이 확장 상태일 때 내부의 캐리어 및 렌즈 모듈들을 광학 배율에 따라 이동시키는 모습을 나타내는 도면이다.
일 실시 예에 따르면, 도면 20-1은, 카메라 모듈(예: 제3 카메라 모듈(133))이 확장된 상태의 구조를 나타낸다.
일 실시 예에 따르면, 도면 20-2 내지 도면 20-3은 카메라 모듈(예: 제3 카메라 모듈(133))이 확장된 상태에서, 각각 다른 광학 배율이 설정된 경우의 렌즈 모듈들의 위치를 나타낸다.
일 실시 예에서, 렌즈 모듈들은 캐리어(예: 1410, 1420, 1430)에 포함될 수 있으며, 캐리어(예: 1410, 1420, 1430)의 이동과 함께 이동할 수 있다.
일 실시 예에서, 광학 배율이 2배율인 도면 20-2의 경우보다 광학 배율이 15배율인 도면 20-3의 경우에 제2 렌즈 모듈을 포함하는 제2 캐리어(1420)가 제1 렌즈 모듈을 포함하는 제1 캐리어(1410)에 더 근접하게 위치할 수 있다. 예를 들어, 광학 배율이 높을수록 제2 캐리어(1420)와 제3 캐리어(1430) 사이의 거리는 멀어질 수 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 카메라 모듈(예: 제3 카메라 모듈(133))의 변경된 카메라 모듈의 길이를 식별하고, 도면 20-2 내지 도면 20-3과 같은 설정된 광학 배율(예: 2배율, 15배율)을 만족시키는 캐리어 및/또는 렌즈 모듈들의 배열 상태를 식별할 수 있다. 또한 프로세서(예: 프로세서(320))는 상기 배열 상태가 되도록, 캐리어들(1420, 1430)을 이동시킬 수 있다.
도 21은, 일 실시 예에 따른, 카메라 모듈의 구조 변화에 대응하여 캐리어 및/또는 렌즈 모듈들을 광학 배율에 따라 이동시키는 모습을 나타내는 도면이다.
일 실시 예에 따르면, 도면 21-1 내지 도면 21-5은, 카메라 모듈(예: 제3 카메라 모듈(133))이 점점 확장되면서 배율이 높아지는 경우를 예시로 캐리어 및 렌즈 모듈들의 배열 상태가 변하는 모습을 나타낸다.
일 실시 예에서, 도면 21-1은 카메라 모듈(예: 제3 카메라 모듈(133))이 확장되기 이전의 상태를 나타내고, 도면 21-2 내지 21-4는 확장 중인 상태를 나타내고, 도면 21-5은 최대로 확장된 상태를 나타낸다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 카메라 모듈(예: 제3 카메라 모듈(133))이 확장됨에 따른 카메라 모듈 및/또는 카메라 홀더의 변화된 길이를 식별할 수 있다. 예를 들어, 전자 장치(100)는 프로세서(320)의 제어에 따라 디바이스 확장 센싱 모듈(350)을 이용하여 제2 하우징(예: 제2 하우징(142))의 이동 및/또는 디스플레이(310)의 노출 영역의 확장 또는 축소를 감지할 수 있다. 또한 전자 장치(100)는 프로세서(320)의 제어에 따라 제2 하우징(예: 제2 하우징(142))의 이동 및/또는 디스플레이(310)의 노출 영역의 확장 또는 축소에 대응하는 제3 카메라 모듈(133)의 구조(예: 길이 또는 크기)의 변경을 식별할 수 있다. 전자 장치(100)는 프로세서(320)의 제어에 따라 제3 카메라 모듈(133)의 구조 변경에 따라 변화된 카메라 모듈 및/또는 카메라 홀더의 길이를 식별할 수 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 설정된 광학 배율을 확인할 수 있다. 예를 들어, 광학 배율은 사용자가 카메라 모듈(330)에 사전 설정할 수도 있고, 디스플레이(310)의 노출 영역의 확장 또는 축소 중에 변경될 수도 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 식별된 카메라 모듈 및/또는 카메라 홀더의 길이 및 광학 배율을 만족시키는 캐리어 및/또는 렌즈 모듈들의 배열 상태를 식별할 수 있다. 예를 들어, 전자 장치(100)는 프로세서(320)의 제어에 따라, 식별된 카메라 모듈 및/또는 카메라 홀더의 길이 및 광학 배율을 메모리(340)에 저장된 캐리어 및/또는 렌즈 모듈들의 배열 상태에 관한 데이터와 비교 및 매핑할 수 있다.
일 실시 예에서, 전자 장치(예: 전자 장치(100))의 프로세서(예: 프로세서(320))는 상기 캐리어 및/또는 렌즈 모듈들의 배열 상태가 되도록 현재 캐리어 및/또는 렌즈 모듈들을 이동시킬 수 있다.
도 21을 참조하면, 동일한 렌즈 모듈들 사용할 경우, 광학 배율이 올라갈수록 보다 긴 카메라 홀더 길이가 이용되는 것을 알 수 있다.
도 22는, 일 실시 예에 따른, 전자 장치가 초점이 맞는지 여부에 따라 렌즈 모듈들의 배열 상태를 조정하는 흐름을 나타내는 도면이다.
일 실시 예에 따른, 도 22의 흐름은, 전자 장치가 렌즈들의 배열 상태를 조정하는 모습을 나타내는 도 23을 참조하여 설명한다.
일 실시 예에 따르면, 도 8의 동작 830에서, 전자 장치(예: 전자 장치(100))는 프로세서(예: 프로세서(320))의 제어에 따라, 캐리어 및/또는 렌즈 모듈들을 식별된 배열 상태가 되도록 이동시킬 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 캐리어(예: 제2 캐리어(1420), 또는 제3 캐리어(1430))를 식별된 배열 상태가 되도록 이동시킬 수 있다.
일 실시 예에 따르면, 동작 2210에서, 전자 장치(예: 전자 장치(100))는 프로세서(예: 프로세서(320))의 제어에 따라, 초점이 정확하게 맞는지 여부를 판단할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라 이미지 센서(예: 이미지 센서(1900))를 이용하여 이미지의 초점이 정확하게 맞는지 여부를 판단할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 초점이 정확하게 맞는다고 판단한 경우에, 동작 2230을 수행할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 초점이 정확하게 맞지 않는다고 판단한 경우에, 동작 2220을 수행할 수 있다.
일 실시 예에 따르면, 동작 2220에서, 전자 장치(예: 전자 장치(100))는 프로세서(예: 프로세서(320))의 제어에 따라, 렌즈 모듈들의 배열 상태를 조정(또는 재조정)할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라 이미지의 초점이 정확하게 맞지 않는다고 판단한 경우, 캐리어(예: 제2 캐리어(1420), 제3 캐리어(1430))에 포함된 렌즈 모듈들의 위치를 미세 조정할 수 있다. 예를 들어, 제2 캐리어(1420)에 포함된 제2 렌즈 모듈 및/또는 제3 캐리어(1430)에 포함된 제3 렌즈 모듈은 프로세서(320)의 제어에 따라, 식별된 배열 상태에 대응하도록 이동했을 수 있다. 제2 캐리어(1420) 및 제3 캐리어(1430)가 식별된 배열 상태로 이동한 경우에도 캐리어(1420, 1430)에 포함된 렌즈 모듈들(예: 제2 렌즈 모듈, 제3 렌즈 모듈)의 위치 때문에 이미지의 초점이 정확하게 맞지 않을 수 있다. 이 경우, 전자 장치(100)는 프로세서(320)의 제어에 따라, VCM 방식으로 캐리어(1420, 1430)에 포함된 렌즈 모듈들의 위치를 미세 조정할 수 있다.
일 실시 예에서, VCM 방식으로 캐리어(1420, 1430)에 포함된 렌즈 모듈들의 위치를 조정하여도 초점이 맞지 않을 경우, 다시 캐리어(1420, 1430) 및/또는 렌즈 모듈들의 위치를 이동시킬 수도 있다.
일 실시 예에서, 도 23은, 광학 배율에 따라 캐리어(1420, 1430)에 포함된 렌즈 모듈들의 위치를 미세 조정하는 모습을 나타낸다. 예를 들어, 전자 장치(100)는 프로세서(320)의 제어에 따라 코일의 전류를 제어함으로써, 자석이 결합된 렌즈 모듈의 위치를 미세하게 조정할 수 있다.
일 실시 예에 따르면, 동작 2230에서, 전자 장치(예: 전자 장치(100))는 프로세서(예: 프로세서(320))의 제어에 따라, 이미지를 획득할 수 있다.
일 실시 예에서, 전자 장치(100)는 프로세서(320)의 제어에 따라, 이미지의 초점이 정확하게 맞는다고 판단한 경우, 캐리어 및/또는 렌즈 모듈들의 배열 상태를 조정하는 동작을 별도로 하지 않고 이미지를 획득할 수 있다.
도 24는, 다른 실시 예에 따른, 전자 장치에 포함되는 카메라 모듈의 구조를 간략하게 나타내는 도면이다.
일 실시 예에 따르면, 도면 24-1 내지 도면 24-2은, 카메라 모듈(예: 제3 카메라 모듈(133))의 구조에 있어서 3개 이상의 카메라 홀더를 포함하는 구조를 나타낸다. 카메라 모듈(예: 제3 카메라 모듈(133))은 3개 이상의 카메라 홀더를 포함함으로써, 다양한 확장 거리에 대응 및 구조의 최적화가 가능할 수 있다.
일 실시 예에 따르면, 도 4 내지 도 23에서는 2개의 카메라 홀더(예: 제1 카메라 홀더(510), 제2 카메라 홀더(520))을 포함하는 카메라 모듈(예: 제3 카메라 모듈(133))의 구조를 설명하였으나, 카메라 모듈(예: 제3 카메라 모듈(133))은 3개 이상의 카메라 홀더를 포함할 수도 있다.
일 실시 예에 따르면, 카메라 홀더의 개수 차이 이외에, 구조에 있어서는, 상술한 도 4 내지 도 23의 카메라 모듈(예: 제3 카메라 모듈(133))의 구조에 대한 설명이 적용될 수 있다.
일 실시 예에서, 카메라 모듈(예: 제3 카메라 모듈(133))은 제1 카메라 홀더(2410), 및 제2 카메라 홀더(2420)을 포함할 수 있으며, 제1 카메라 홀더(2410)와 제2 카메라 홀더(2420)의 사이에 제3 카메라 홀더(2430)가 배치될 수 있다.
일 실시 예에서, 제1 카메라 홀더(2410) 및 제3 카메라 홀더(2430)는 서로 이동 가능하도록 연결(또는 결합)될 수 있고, 제3 카메라 홀더(2430) 및 제2 카메라 홀더(2420)도 서로 이동 가능하도록 연결(또는 결합)될 수 있다.
도 25는, 다른 실시 예에 따른, 카메라 모듈의 구조 변화에 따라 렌즈 모듈을 포함하는 캐리어들이 이동하는 모습을 나타내는 도면이다.
일 실시 예에서, 도면 25-1의 카메라 모듈(예: 제3 카메라 모듈(133))은 확장되기 이전의 상태를 도시한다.
일 실시 예에 따르면, 도면 25-1은, 캐리어들(예: 제1 캐리어(2410-1), 제2 캐리어(2420-1), 또는 제3 캐리어(2430-1))가 3개의 카메라 홀더(예: 제1 카메라 홀더(2410), 제2 카메라 홀더(2420), 또는 제3 카메라 홀더(2430))를 포함하는 카메라 모듈(예: 제3 카메라 모듈(133))에 배치되는 모습을 나타낸다.
일 실시 예에 따르면, 도면 25-2은, 카메라 모듈(예: 제3 카메라 모듈(133))이 확장된 상태를 도시한다.
일 실시 예에서, 제1 카메라 홀더(2410)은 제3 카메라 홀더(2430)에 서로 이동 가능하도록 연결(또는 결합)될 수 있다. 또한 제3 카메라 홀더(2430)은 제2 카메라 홀더(2420)에 서로 이동 가능하도록 연결(또는 결합)될 수 있다.
일 실시 예에서, 카메라 홀더들(예: 제1 카메라 홀더(2410), 제2 카메라 홀더(2420), 및 제3 카메라 홀더(2430))에 의해 형성되는 공간에 캐리어들(예: 제1 캐리어(2410-1), 제2 캐리어(2420-1), 및 제3 캐리어(2430-1))이 배치될 수 있다.
일 실시 예에서, 도면 25-3을 참조하면, 제1 캐리어(2410-1) 및 제3 캐리어(2430-1)는 제1 압전 액추에이터(예: 도 13의 압전 액추에이터(1300))를 공유할 수 있다. 상기 압전 액추에이터는 제1 캐리어(2410-1)의 이동에 관여할 수 있다. 또 다른 예로, 제3 캐리어(2430-1) 및 제2 캐리어(2420-1)는 제2 압전 액추에이터(예: 도 13의 압전 액추에이터(1300))를 공유할 수 있다. 제2 압전 액추에이터는 제2 캐리어(2420-1)의 이동에 관여할 수 있다.
일 실시 예에서, 제3 캐리어(2430-1)는 제3 카메라 홀더(2430)에 고정되어 이동되지 않도록 배치될 수 있다. 이 경우, 제3 캐리어(2430-1)는 제1 압전 액추에이터 또는 제2 압전 액추에이터를 공유하지 않을 수 있다.
일 실시 예에서, 도 13 내지 도 18를 참조하여 설명한 압전 액추에이터를 이용한 캐리어들의 이동에 대한 설명은, 3개의 카메라 홀더(예: 제1 카메라 홀더(2410), 제2 카메라 홀더(2420), 제3 카메라 홀더(2430))을 포함하는 카메라 모듈(예: 제3 카메라 모듈(133))에 대한 설명에도 적용될 수 있다.
도 26은, 일 실시 예에 따른, 전자 장치의 디스플레이의 노출 영역의 크기 변화와 관련된 줌 인/줌 아웃 동작을 나타내는 도면이다.
일 실시 예에 따르면, 도면 26-1 내지 도면 26-3은, 디스플레이(예: 디스플레이(310))의 확장 또는 축소에 따른 전자 장치(예: 전자 장치(100))의 줌 인/줌 아웃 동작을 나타낸다.
일 실시 예에서, 사용자가 디스플레이(310)의 외부에 보여지는 영역(예: 노출 영역)을 확장시키는 경우에, 전자 장치(100)는 프로세서(320)의 제어에 따라 줌 인 동작을 수행할 수 있다. 예를 들어, 사용자가 손으로 디스플레이(310)의 외부에 보여지는 영역을 확장시키는 경우, 전자 장치(100)는 프로세서(320)의 제어에 따라 확장된 정도에 대응하는 배율로 줌 인 동작을 수행함으로써, 고배율의 이미지를 사용자에게 제공할 수 있다. 다른 예를 들면, 도면 26-1의 상태에서 도면 26-3의 상태로 디스플레이(310)의 외부에 보여지는 영역을 확장시키는 경우, 전자 장치(100)는 프로세서(320)의 제어에 따라 줌 인 동작을 수행함으로써 사용자에게 확대된 이미지를 제공할 수 있다.
일 실시 예에서, 사용자가 디스플레이(310)의 외부에 보여지는 영역을 축소시키는 경우에, 전자 장치(100)는 프로세서(320)의 제어에 따라 줌 아웃 동작을 수행할 수 있다. 예를 들어, 사용자가 손으로 디스플레이(310)의 외부에 보여지는 영역을 축소시키는 경우, 전자 장치(100)는 프로세서(320)의 제어에 따라 축소된 정도에 대응하는 배율로 줌 아웃 동작을 수행함으로써, 저배율의 이미지를 사용자에게 제공할 수 있다. 다른 예를 들면, 도면 26-3의 상태에서 도면 26-1의 상태로 디스플레이(310)의 외부에 보여지는 영역을 축소시키는 경우, 전자 장치(100)는 프로세서(320)의 제어에 따라 줌 아웃 동작을 수행함으로써 사용자에게 저배율 이미지를 제공할 수 있다.
일 실시 예에 따르면, 디스플레이(310)의 외부에 보여지는 영역을 확대 또는 축소시키는 경우에, 전자 장치(100)는 프로세서(320)의 제어에 따라 미리 보기 화면에 줌 인 동작 또는 줌 아웃 동작을 하지 않고, 화면에 사용 가능한 광학 배율을 상기 영역의 크기에 기반하여 표시할 수 있다. 예를 들어, 사용자가 광학 배율을 설정한 경우, 전자 장치(100)는 프로세서(320)의 제어에 따라 해당 광학 배율에 해당한 미리 보기 화면을 표시할 수 있다.
도 27은, 일 실시 예에 따른, 전자 장치의 디스플레이의 노출 영역의 크기 변화와 관련된 줌 인/줌 아웃을 유도하는 사용자 인터페이스를 나타내는 도면이다.
일 실시 예에서, 도면 27-1을 참조하면, 전자 장치(100)는 프로세서(320)의 제어에 따라 사용자에게 줌 인을 위해 슬라이드 아웃 동작을 유도하는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 전자 장치(100)가 디스플레이(310)를 통해 특정 배율로 사용자에게 이미지를 제공하는 중, 디스플레이(310)의 외부에 보여지는 영역을 확대시키면 보다 고배율의 이미지를 제공할 수 있다는 정보를 제공하는 사용자 인터페이스(예: slide out to quick zoom in)를 프로세서(320)의 제어에 따라 표시할 수 있다.
일 실시 예에서, 도면 27-2를 참조하면, 전자 장치(100)는 프로세서(320)의 제어에 따라 사용자에게 줌 아웃을 위해 슬라이드 인 동작을 유도하는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 전자 장치(100)가 디스플레이(310)를 통해 특정 배율로 사용자에게 이미지를 제공하는 중, 디스플레이(310)의 외부에 보여지는 영역을 축소시키면 보다 저배율의 이미지를 제공할 수 있다는 정보를 제공하는 사용자 인터페이스(예: slide in to quick zoom out)를 프로세서(320)의 제어에 따라 표시할 수 있다.
상술한 바와 같이, 사용자에게 줌 인/줌 아웃을 유도하는 사용자 인터페이스를 디스플레이(310)를 통해 표시함으로써, 보다 향상된 사용자 경험을 제공할 수 있다.
도 28은, 일 실시 예에 따른, 전자 장치의 디스플레이의 노출 영역의 크기와 광학 배율이 연계되는 사용자 인터페이스를 나타내는 도면이다.
일 실시 예에서, 도면 28-1을 참조하면, 전자 장치(100)는 프로세서(320)의 제어에 따라, 디스플레이(310)의 화면에 줌 프리뷰(2810), 또는 배율 표시 영역(2820)을 표시할 수 있다.
일 실시 예에서, 줌 프리뷰(2810)에는 줌 인/줌 아웃 시에 고배율/저배율로 변경되는 이미지에 대한 프리뷰 화면이 표시될 수 있다.
일 실시 예에서, 배율 표시 영역(2820)에는 디스플레이(310)의 확장에 따라 디스플레이(310)의 화면에 표시되는 이미지의 배율이 표시될 수 있다. 또 다른 예로, 상기 화면에 표시되는 이미지의 배율은 사용자가 설정 가능한 이미지 배율을 의미할 수도 있다.
일 실시 예에서, 도면 28-2-(1)을 참조하면, 전자 장치(100)는 프로세서(320)의 제어에 따라, 사용자가 어플리케이션에 최초 진입 시의 첫 화면을 표시할 수 있다.
일 실시 예에서, 도면 28-2-(2)을 참조하면, 전자 장치(100)는 프로세서(320)의 제어에 따라, 디스플레이(320)의 외부에 보여지는 최대 노출 영역에 대비하여 20% 확장 시에 2배율로 확대되는 사용자 인터페이스를 표시할 수 있다. 다른 예를 들면, 디스플레이(320)의 외부에 보여지는 최대 노출 영역에 대비하여 20% 확장 시에, 사용자는 광학 배율을 2배율까지 설정 가능할 수 있다.
일 실시 예에서, 도면 28-2-(3)을 참조하면, 전자 장치(100)는 프로세서(320)의 제어에 따라, 디스플레이(320)의 외부에 보여지는 최대 노출 영역에 대비하여 40% 확장 시에 4배율로 확대되는 사용자 인터페이스를 표시할 수 있다. 다른 예를 들면, 디스플레이(320)의 외부에 보여지는 최대 노출 영역에 대비하여 40% 확장 시에, 사용자는 광학 배율을 4배율까지 설정 가능할 수 있다.
일 실시 예에서, 도면 28-2-(4)을 참조하면, 전자 장치(100)는 프로세서(320)의 제어에 따라, 디스플레이(320)의 외부에 보여지는 최대 노출 영역에 대비하여 100% 확장 시에 10배율로 확대되는 사용자 인터페이스를 표시할 수 있다. 다른 예를 들면, 디스플레이(320)의 외부에 보여지는 최대 노출 영역에 대비하여 100% 확장 시에, 사용자는 광학 배율을 10배율까지 설정 가능할 수 있다.
상술한 바와 같이, 전자 장치(100)는 프로세서(320)의 제어에 따라, 디스플레이(320)의 확장 정도에 따른 배율을 표시함으로써 사용자에게 보다 향상된 사용자 경험을 제공할 수 있다. 또한, 상술한 수치는 예시이며, 설정에 따라 달라질 수 있으며 특별한 제한이 없을 수 있다.
도 29는, 일 실시 예에 따른, 전자 장치에 카메라 모듈이 배치된 다른 예시를 나타내는 도면이다.
일 실시 예에서, 도면 29-1을 참조하면, 제3 카메라 모듈(133)의 적어도 일부가 디스플레이(320)가 확장되지 않은 상태에서는 후면에서 보이지 않을 수 있다.
일 실시 예에서, 도면 29-2를 참조하면, 제3 카메라 모듈(133)의 적어도 일부가 디스플레이(320)가 확장된 상태에서는 후면에서 보일 수 있다.
상술한 바와 같이, 제3 카메라 모듈(133)이 제2 하우징(142)과 제1 하우징(141)이 중첩되는 영역에 배치함으로써, 디스플레이(320)의 외부에 보여지는 영역의 확장 여부에 따라 제3 카메라 모듈(133)가 외부에서 보이지 않도록 할 수 있다. 예를 들어, 디스플레이(320)의 외부에 보여지는 영역의 확장되지 않은 상태에서, 제3 카메라 모듈(133)은 외부에 보이지 않을 수 있으며, 실질적으로 동작을 하지 않을 수 있다. 다른 예를 들면, 디스플레이(320)의 외부에 보여지는 영역이 확장될 경우, 제3 카메라 모듈(133)의 적어도 일부는 외부에 보여질 수 있으며, 제3 카메라 모듈(133)은 동작할 수 있다.
도 30은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 30을 참조하면, 네트워크 환경(3000)에서 전자 장치(3001)는 제1 네트워크(3098)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(3002)와 통신하거나, 또는 제2 네트워크(3099)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(3004) 또는 서버(3008)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(3001)는 서버(3008)를 통하여 전자 장치(3004)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(3001)는 프로세서(3020), 메모리(3030), 입력 모듈(3050), 음향 출력 모듈(3055), 디스플레이 모듈(3060), 오디오 모듈(3070), 센서 모듈(3076), 인터페이스(3077), 연결 단자(3078), 햅틱 모듈(3079), 카메라 모듈(3080), 전력 관리 모듈(3088), 배터리(3089), 통신 모듈(3090), 가입자 식별 모듈(3096), 또는 안테나 모듈(3097)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(3001)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(3078))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(3076), 카메라 모듈(3080), 또는 안테나 모듈(3097))은 하나의 구성요소(예: 디스플레이 모듈(3060))로 통합될 수 있다.
프로세서(3020)는, 예를 들면, 소프트웨어(예: 프로그램(3040))를 실행하여 프로세서(3020)에 연결된 전자 장치(3001)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(3020)는 다른 구성요소(예: 센서 모듈(3076) 또는 통신 모듈(3090))로부터 수신된 명령 또는 데이터를 휘발성 메모리(3032)에 저장하고, 휘발성 메모리(3032)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(3034)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(3020)는 메인 프로세서(3021)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(3023)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(3001)가 메인 프로세서(3021) 및 보조 프로세서(3023)를 포함하는 경우, 보조 프로세서(3023)는 메인 프로세서(3021)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(3023)는 메인 프로세서(3021)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(3023)는, 예를 들면, 메인 프로세서(3021)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(3021)를 대신하여, 또는 메인 프로세서(3021)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(3021)와 함께, 전자 장치(3001)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(3060), 센서 모듈(3076), 또는 통신 모듈(3090))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(3023)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(3080) 또는 통신 모듈(3090))의 일부로서 구현될 수 있다. 일 실시 예에 따르면, 보조 프로세서(3023)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(3001) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(3008))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(3030)는, 전자 장치(3001)의 적어도 하나의 구성요소(예: 프로세서(3020) 또는 센서 모듈(3076))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(3040)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(3030)는, 휘발성 메모리(3032) 또는 비휘발성 메모리(3034)를 포함할 수 있다.
프로그램(3040)은 메모리(3030)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(3042), 미들 웨어(3044) 또는 어플리케이션(3046)을 포함할 수 있다.
입력 모듈(3050)은, 전자 장치(3001)의 구성요소(예: 프로세서(3020))에 사용될 명령 또는 데이터를 전자 장치(3001)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(3050)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(3055)은 음향 신호를 전자 장치(3001)의 외부로 출력할 수 있다. 음향 출력 모듈(3055)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(3060)은 전자 장치(3001)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(3060)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 모듈(3060)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(3070)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(3070)은, 입력 모듈(3050)을 통해 소리를 획득하거나, 음향 출력 모듈(3055), 또는 전자 장치(3001)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(3002))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(3076)은 전자 장치(3001)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(3076)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(3077)는 전자 장치(3001)가 외부 전자 장치(예: 전자 장치(3002))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(3077)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(3078)는, 그를 통해서 전자 장치(3001)가 외부 전자 장치(예: 전자 장치(3002))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(3078)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(3079)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(3079)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(3080)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(3080)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(3088)은 전자 장치(3001)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(3088)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(3089)는 전자 장치(3001)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(3089)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(3090)은 전자 장치(3001)와 외부 전자 장치(예: 전자 장치(3002), 전자 장치(3004), 또는 서버(3008)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(3090)은 프로세서(3020)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(3090)은 무선 통신 모듈(3092)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(3094)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(3098)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(3099)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(3004)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(3092)은 가입자 식별 모듈(3096)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(3098) 또는 제2 네트워크(3099)와 같은 통신 네트워크 내에서 전자 장치(3001)를 확인 또는 인증할 수 있다.
무선 통신 모듈(3092)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(3092)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(3092)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(3092)은 전자 장치(3001), 외부 전자 장치(예: 전자 장치(3004)) 또는 네트워크 시스템(예: 제2 네트워크(3099))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(3092)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(3097)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(3097)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(3097)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(3098) 또는 제2 네트워크(3099)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(3090)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(3090)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(3097)의 일부로 형성될 수 있다.
다양한 실시 예에 따르면, 안테나 모듈(3097)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시 예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제2 네트워크(3099)에 연결된 서버(3008)를 통해서 전자 장치(3001)와 외부의 전자 장치(3004)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(3002, 또는 3004) 각각은 전자 장치(3001)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(3001)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(3002, 3004, 또는 3008) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(3001)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(3001)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(3001)로 전달할 수 있다. 전자 장치(3001)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(3001)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시 예에 있어서, 외부의 전자 장치(3004)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(3008)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시 예에 따르면, 외부의 전자 장치(3004) 또는 서버(3008)는 제2 네트워크(3099) 내에 포함될 수 있다. 전자 장치(3001)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 31는, 다양한 실시예들에 따른, 카메라 모듈(3080)을 예시하는 블럭도(3100)이다.
도 31를 참조하면, 카메라 모듈(3080)은 렌즈 어셈블리(3110), 플래쉬(3120), 이미지 센서(3130), 이미지 스태빌라이저(3140), 메모리(3150)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(3160)를 포함할 수 있다. 렌즈 어셈블리(3110)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(3110)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(3080)은 복수의 렌즈 어셈블리(3110)들을 포함할 수 있다. 이런 경우, 카메라 모듈(3080)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(3110)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(3110)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다.
플래쉬(3120)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일실시예에 따르면, 플래쉬(3120)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(3130)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(3110)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서(3130)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(3130)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.
이미지 스태빌라이저(3140)는 카메라 모듈(3080) 또는 이를 포함하는 전자 장치(3001)의 움직임에 반응하여, 렌즈 어셈블리(3110)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(3130)를 특정한 방향으로 움직이거나 이미지 센서(3130)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일실시예에 따르면, 이미지 스태빌라이저(3140)는, 일실시예에 따르면, 이미지 스태빌라이저(3140)은 카메라 모듈(3080)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(3080) 또는 전자 장치(3001)의 그런 움직임을 감지할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(3140)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(3150)는 이미지 센서(3130)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(3150)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 표시 장치(3060)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(3150)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(3160)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(3150)는 메모리(3030)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.
이미지 시그널 프로세서(3160)는 이미지 센서(3130)을 통하여 획득된 이미지 또는 메모리(3150)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(3160)는 카메라 모듈(3080)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(3130))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(3160)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(3150)에 다시 저장되거나 카메라 모듈(3080)의 외부 구성 요소(예: 메모리(3030), 표시 장치(3060), 전자 장치(3002), 전자 장치(3004), 또는 서버(3008))로 제공될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(3160)는 프로세서(3020)의 적어도 일부로 구성되거나, 프로세서(3020)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(3160)이 프로세서(3020)과 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(3160)에 의해 처리된 적어도 하나의 이미지는 프로세서(3020)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 표시 장치(3060)를 통해 표시될 수 있다.
일 실시 예에 따르면, 전자 장치(3001)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(3080)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(3080)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(3080)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 전자 장치(예: 전자 장치(100))는, 제1 하우징(예: 제1 하우징(141)), 및 상기 제1 하우징(예: 제1 하우징(141))에 대해 이동 가능하도록 상기 제1 하우징(예: 제1 하우징(141))에 연결된 제2 하우징(예: 제2 하우징(142)), 상기 제1 하우징(예: 제1 하우징(141)) 및 상기 제2 하우징(예: 제2 하우징(142)) 상에 배치되고, 상기 제2 하우징(예: 제2 하우징(142))의 이동에 따라 구조 변경이 가능한 플렉서블 디스플레이(예: 디스플레이(310)), 광학 배율의 설정이 가능한 카메라 모듈(예: 카메라 모듈(330)) 및 상기 플렉서블 디스플레이(예: 디스플레이(310)) 및 상기 카메라 모듈(예: 카메라 모듈(330))과 전기적으로 연결된 프로세서(예: 프로세서(320))를 포함하고, 상기 카메라 모듈(예: 카메라 모듈(330))은 상기 제1 하우징(예: 제1 하우징(141))에 결합되고 제1 광축을 따라 배치되는 제1 렌즈 모듈(예: 제1 렌즈 모듈(910))을 포함하는 제1 카메라 홀더(예: 제1 카메라 홀더(510)) 및 상기 제2 하우징(예: 제2 하우징(142))에 결합되고 상기 제1 광축을 따라 배치되는 제2 렌즈 모듈(예: 제2 렌즈 모듈(920))을 적어도 포함하는 제2 카메라 홀더(예: 제2 카메라 홀더(520))를 포함하고, 상기 제2 카메라 홀더(예: 제2 카메라 홀더(520))는 상기 제2 하우징(예: 제2 하우징(142))의 이동을 따라 상기 제1 카메라 홀더(예: 제1 카메라 홀더(510))에 대해 상기 제1 광축 상에서 이동 가능하며, 상기 프로세서(예: 프로세서(320))는 상기 제2 하우징(예: 제2 하우징(142))의 이동을 식별하고, 식별된 상기 제2 하우징(예: 제2 하우징(142))의 이동 및 상기 광학 배율을 만족시키는 렌즈 모듈들의 배열 상태를 식별하고, 상기 제1 렌즈 모듈(예: 제1 렌즈 모듈(910)) 및 상기 제2 렌즈 모듈(예: 제2 렌즈 모듈(920))을 식별된 상기 배열 상태가 되도록 이동시킬 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 전자 장치(예: 전자 장치(100))는, 디바이스 확장 센싱 모듈(예: 디바이스 확장 센싱 모듈(350))을 더 포함하고, 상기 프로세서(예: 프로세서(320))는, 상기 디바이스 확장 센싱 모듈(예: 디바이스 확장 센싱 모듈(350))을 이용하여 상기 제2 하우징(예: 제2 하우징(142)) 또는 상기 플렉서블 디스플레이(예: 디스플레이(310))의 움직임을 감지하고, 상기 감지에 기반하여 상기 플렉서블 디스플레이(예: 디스플레이(310))의 노출 영역의 크기를 식별하고, 식별된 상기 노출 영역의 크기 및 상기 광학 배율을 만족시키는 렌즈 모듈들의 배열 상태를 식별할 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 전자 장치(예: 전자 장치(100))는, 상기 플렉서블 디스플레이(예: 디스플레이(310))의 상기 노출 영역의 크기가 변경됨에 따라 상기 카메라 모듈(예: 카메라 모듈(330))의 구조도 변경될 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 전자 장치(예: 전자 장치(100))는, 메모리를 더 포함하고, 상기 메모리는 식별된 상기 제2 하우징(예: 제2 하우징(142))의 이동 및 상기 광학 배율을 만족시키는 렌즈 모듈들의 배열 상태에 관한 데이터를 저장하고 있을 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 제1 카메라 홀더(예: 제1 카메라 홀더(510))는 제1 브라켓을 통해 상기 제1 하우징(예: 제1 하우징(141))과 결합되고, 상기 제2 카메라 홀더(예: 제2 카메라 홀더(520))는 제2 브라켓을 통해 상기 제2 하우징(예: 제2 하우징(142))과 결합될 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 제1 브라켓 및 상기 제2 브라켓은 상기 제1 하우징(예: 제1 하우징(141)) 및 상기 제2 하우징(예: 제2 하우징(142))에 스크류 체결될 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 전자 장치(예: 전자 장치(100))는, 상기 제2 브라켓은 완충 기재를 포함하고, 상기 완충 기재는 상기 제1 브라켓과 접촉할 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 프로세서(예: 프로세서(320))는 상기 제2 하우징(예: 제2 하우징(142))의 이동에 의해 형성된 상기 제1 카메라 홀더(예: 제1 카메라 홀더(510)) 및 상기 제2 카메라 홀더(예: 제2 카메라 홀더(520))의 길이를 식별할 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 프로세서(예: 프로세서(320))는 상기 제1 렌즈 모듈(예: 제1 렌즈 모듈(910)) 및 상기 제2 렌즈 모듈(예: 제2 렌즈 모듈(920))을 VCM(voice coil motor) 방식 및 압전 액추에이터를 이용한 방식 중 적어도 하나로 이동시킬 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 제1 렌즈 모듈(예: 제1 렌즈 모듈(910))은 제1 압전 액추에이터와 결합되고, 상기 제2 렌즈 모듈(예: 제2 렌즈 모듈(920))은 제2 압전 액추에이터와 결합될 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 프로세서(예: 프로세서(320))는, 상기 카메라 모듈(예: 카메라 모듈(330))의 초점이 맞는지 여부를 판단하고, 상기 초점이 맞지 않는다고 판단한 경우에 상기 제1 렌즈 모듈(예: 제1 렌즈 모듈(910)) 및 상기 제2 렌즈 모듈(예: 제2 렌즈 모듈(920))의 위치를 재조정하고, 상기 초점이 맞는다고 판단한 경우에 상기 카메라 모듈(예: 카메라 모듈(330))을 이용하여 이미지를 획득할 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 카메라 모듈(예: 카메라 모듈(330))은, 상기 제1 카메라 홀더(예: 제1 카메라 홀더(510))와 상기 제2 카메라 홀더(예: 제2 카메라 홀더(520)) 사이에 제3 카메라 홀더를 더 포함하고, 상기 제3 카메라 홀더는, 상기 제1 카메라 홀더(예: 제1 카메라 홀더(510)) 및 상기 제2 카메라 홀더(예: 제2 카메라 홀더(520))에 대해 이동 가능하도록 상기 제1 카메라 홀더(예: 제1 카메라 홀더(510)) 및 상기 제2 카메라 홀더(예: 제2 카메라 홀더(520))에 연결될 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 프로세서(예: 프로세서(320))는, 사용자가 상기 플렉서블 디스플레이(예: 디스플레이(310))를 확장시키는 입력을 획득한 경우에 줌 인 동작을 수행하고, 상기 사용자가 상기 플렉서블 디스플레이(예: 디스플레이(310))를 축소시키는 입력을 획득한 경우에 줌 아웃 동작을 수행할 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 프로세서(예: 프로세서(320))는, 상기 플렉서블 디스플레이(예: 디스플레이(310))를 통해 사용자에게 줌 인 또는 줌 아웃을 유도하는 사용자 인터페이스를 표시할 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 프로세서(예: 프로세서(320))는 상기 플렉서블 디스플레이(예: 디스플레이(310))의 노출 영역의 크기와 상기 광학 배율이 연계되는 사용자 인터페이스를 제공할 수 있다.
다른 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 전자 장치(예: 전자 장치(100))는, 제1 하우징(예: 제1 하우징(141)), 및 상기 제1 하우징(예: 제1 하우징(141))에 대해 이동 가능하도록 상기 제1 하우징(예: 제1 하우징(141))에 연결된 제2 하우징(예: 제2 하우징(142)), 상기 제1 하우징(예: 제1 하우징(141)) 및 상기 제2 하우징(예: 제2 하우징(142)) 상에 배치되고, 상기 제2 하우징(예: 제2 하우징(142))의 이동에 따라 상기 전자 장치(예: 전자 장치(100)) 전면으로의 노출 영역의 크기를 변경 가능한 플렉서블 디스플레이(예: 디스플레이(310)), 광학 배율이 설정된 카메라 모듈(예: 카메라 모듈(330)), 상기 카메라 모듈(예: 카메라 모듈(330))은, 상기 제1 하우징(예: 제1 하우징(141))에 결합되고 제1 광축을 따라 배치되는 제1 렌즈 모듈(예: 제1 렌즈 모듈(910))을 포함하는 제1 카메라 홀더(예: 제1 카메라 홀더(510)) 및 상기 제2 하우징(예: 제2 하우징(142))에 결합되고 상기 제1 광축을 따라 배치되는 제2 렌즈 모듈(예: 제2 렌즈 모듈(920))을 적어도 포함하는 제2 카메라 홀더(예: 제2 카메라 홀더(520))를 포함하고, 상기 제2 카메라 홀더(예: 제2 카메라 홀더(520))는 상기 제2 하우징(예: 제2 하우징(142))의 이동을 따라 상기 제1 카메라 홀더(예: 제1 카메라 홀더(510))에 대해 상기 제1 광축 상에서 이동 가능하며, 상기 플렉서블 디스플레이(예: 디스플레이(310)) 및 상기 카메라 모듈(예: 카메라 모듈(330))과 전기적으로 연결된 프로세서(예: 프로세서(320))를 포함하고, 상기 프로세서(예: 프로세서(320))는, 상기 플렉서블 디스플레이(예: 디스플레이(310))의 상기 노출 영역의 크기를 식별하고, 상기 제2 렌즈 모듈(예: 제2 렌즈 모듈(920)) 및 상기 제3 렌즈 모듈의 현재 위치에 대응하는 제1 위치를 식별하고, 상기 제2 렌즈 모듈(예: 제2 렌즈 모듈(920)) 및 상기 제3 렌즈 모듈이 상기 카메라 모듈(예: 카메라 모듈(330))의 설정된 광학 배율을 만족시키는 제2 위치를 식별하고, 상기 제2 렌즈 모듈(예: 제2 렌즈 모듈(920)) 및 상기 제3 렌즈 모듈을 상기 제2 위치로 이동시킬 수 있다.
다른 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 전자 장치(예: 전자 장치(100))는, 디바이스 확장 센싱 모듈(예: 디바이스 확장 센싱 모듈(350))을 더 포함하고, 상기 프로세서(예: 프로세서(320))는, 상기 디바이스 확장 센싱 모듈(예: 디바이스 확장 센싱 모듈(350))을 이용하여 상기 플렉서블 디스플레이(예: 디스플레이(310))의 움직임을 감지하고, 상기 감지에 기반하여 상기 노출 영역의 크기를 식별할 수 있다.
다른 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 전자 장치(예: 전자 장치(100))는, 메모리를 더 포함하고, 상기 메모리는 검출된 상기 노출 영역의 크기 및 상기 광학 배율을 만족시키는 상기 제2 위치에 관한 데이터를 저장하고 있을 수 있다.
다른 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 프로세서(예: 프로세서(320))는, 상기 제1 렌즈 모듈(예: 제1 렌즈 모듈(910)) 및 상기 제2 렌즈 모듈(예: 제2 렌즈 모듈(920))을 VCM(voice coil motor) 방식 및 압전 액추에이터를 이용한 방식 중 적어도 하나로 이동시킬 수 있다.
다른 실시 예에 따른 전자 장치(예: 전자 장치(100))에 있어서, 상기 제1 렌즈 모듈(예: 제1 렌즈 모듈(910))은 제1 압전 액추에이터와 결합되고, 상기 제2 렌즈 모듈(예: 제2 렌즈 모듈(920))은 제2 압전 액추에이터와 결합될 수 있다.
본 문서의 다양한 실시 예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(3001)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(3036) 또는 외장 메모리(3038))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(3040))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(3001))의 프로세서(예: 프로세서(3020))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
본 개시내용이 그의 특정 실시 예를 참조하여 도시되고 설명되었지만, 본 개시의 범위를 벗어나지 않고 형태 및 세부사항의 다양한 변경이 이루어질 수 있다는 것은 당업자에 의해 이해될 것이다. 따라서, 본 개시의 범위는 실시 예에 한정되어 정의되어서는 안 되며, 첨부된 청구범위 및 그 균등물에 의해 정의되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    제1 하우징;
    상기 제1 하우징에 대해 이동 가능하도록 상기 제1 하우징에 연결된 제2 하우징;
    상기 제1 하우징 및 상기 제2 하우징 상에 배치되고, 상기 제2 하우징의 이동에 따라 구조 변경이 가능한 플렉서블 디스플레이;
    광학 배율의 설정이 가능한 카메라 모듈; 및
    상기 플렉서블 디스플레이 및 상기 카메라 모듈과 전기적으로 연결된 프로세서를 포함하고,
    상기 카메라 모듈은:
    상기 제1 하우징에 결합되고 제1 광축을 따라 배치되는 제1 렌즈 모듈을 포함하는 제1 카메라 홀더; 및
    상기 제2 하우징에 결합되고 상기 제1 광축을 따라 배치되는 제2 렌즈 모듈을 적어도 포함하는 제2 카메라 홀더를 포함하고,
    상기 제2 카메라 홀더는 상기 제2 하우징의 이동을 따라 상기 제1 카메라 홀더에 대해 상기 제1 광축 상에서 이동 가능함;
    상기 프로세서는:
    상기 제2 하우징의 이동을 식별하고,
    식별된 상기 제2 하우징의 이동 및 상기 광학 배율을 만족시키는 렌즈 모듈들의 배열 상태를 식별하고,
    상기 제1 렌즈 모듈 및 상기 제2 렌즈 모듈을 식별된 상기 배열 상태가 되도록 이동시키는, 전자 장치.
  2. 청구항 1에 있어서,
    디바이스 확장 센싱 모듈을 더 포함하고,
    상기 프로세서는:
    상기 디바이스 확장 센싱 모듈을 이용하여 상기 제2 하우징 또는 상기 플렉서블 디스플레이의 움직임을 감지하고,
    상기 감지되는 움직임에 기반하여 상기 플렉서블 디스플레이의 노출 영역의 크기를 식별하고,
    식별된 상기 노출 영역의 크기 및 상기 광학 배율을 만족시키는 렌즈 모듈들의 배열 상태를 식별하는, 전자 장치.
  3. 청구항 2에 있어서,
    상기 플렉서블 디스플레이의 상기 노출 영역의 크기가 변경됨에 따라 상기 카메라 모듈의 구조도 변경되는, 전자 장치.
  4. 청구항 1에 있어서,
    메모리를 더 포함하고,
    상기 메모리는 식별된 상기 제2 하우징의 이동 및 상기 광학 배율을 만족시키는 렌즈 모듈들의 배열 상태에 관한 데이터를 저장하고 있는, 전자 장치.
  5. 청구항 1에 있어서,
    상기 제1 카메라 홀더는 제1 브라켓을 통해 상기 제1 하우징과 결합되고,
    상기 제2 카메라 홀더는 제2 브라켓을 통해 상기 제2 하우징과 결합되는, 전자 장치.
  6. 청구항 5에 있어서,
    상기 제1 브라켓 및 상기 제2 브라켓은 상기 제1 하우징 및 상기 제2 하우징에 각각 스크류 체결되는, 전자 장치.
  7. 청구항 5에 있어서,
    상기 제2 브라켓은 완충 기재를 포함하고,
    상기 완충 기재는 상기 제1 브라켓과 접촉하는, 전자 장치.
  8. 청구항 1에 있어서,
    상기 프로세서는:
    상기 제2 하우징의 이동에 의해 형성된 상기 제1 카메라 홀더 및 상기 제2 카메라 홀더의 길이를 식별하는, 전자 장치.
  9. 청구항 1에 있어서,
    상기 프로세서는:
    상기 제1 렌즈 모듈 및 상기 제2 렌즈 모듈을 VCM(voice coil motor) 방식 및 압전 액추에이터를 이용한 방식 중 적어도 하나로 이동시키는, 전자 장치.
  10. 청구항 9에 있어서,
    상기 제1 렌즈 모듈은 제1 압전 액추에이터와 결합되고,
    상기 제2 렌즈 모듈은 제2 압전 액추에이터와 결합되는, 전자 장치.
  11. 청구항 1에 있어서,
    상기 프로세서는:
    상기 카메라 모듈의 초점이 맞는지 여부를 판단하고,
    상기 초점이 맞지 않는다고 판단한 경우에 상기 제1 렌즈 모듈 및 상기 제2 렌즈 모듈의 위치를 재조정하고,
    상기 초점이 맞는다고 판단한 경우에 상기 카메라 모듈을 이용하여 이미지를 획득하는, 전자 장치.
  12. 청구항 1에 있어서,
    상기 카메라 모듈은,
    상기 제1 카메라 홀더와 상기 제2 카메라 홀더 사이에 제3 카메라 홀더를 더 포함하고,
    상기 제3 카메라 홀더는, 상기 제1 카메라 홀더 및 상기 제2 카메라 홀더에 대해 이동 가능하도록 상기 제1 카메라 홀더 및 상기 제2 카메라 홀더에 연결되는, 전자 장치.
  13. 청구항 1에 있어서,
    상기 프로세서는:
    사용자가 상기 플렉서블 디스플레이를 확장시키는 입력을 획득한 경우에 줌 인 동작을 수행하고,
    상기 사용자가 상기 플렉서블 디스플레이를 축소시키는 입력을 획득한 경우에 줌 아웃 동작을 수행하는, 전자 장치.
  14. 청구항 1에 있어서,
    상기 프로세서는:
    상기 플렉서블 디스플레이를 통해 사용자에게 줌 인 또는 줌 아웃을 유도하는 사용자 인터페이스를 표시하는, 전자 장치.
  15. 청구항 1에 있어서,
    상기 프로세서는:
    상기 플렉서블 디스플레이의 노출 영역의 크기와 상기 광학 배율이 연계되는 사용자 인터페이스를 제공하는, 전자 장치.
PCT/KR2021/015069 2020-11-06 2021-10-26 카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법 WO2022097981A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP21889446.7A EP4184284A4 (en) 2020-11-06 2021-10-26 ELECTRONIC DEVICE WITH CAMERA MODULE AND METHOD FOR OPERATING SAID DEVICE
US17/939,552 US20230007149A1 (en) 2020-11-06 2022-09-07 Electronic device including camera module and method for operating the electronic device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2020-0148009 2020-11-06
KR20200148009 2020-11-06
KR10-2021-0024915 2021-02-24
KR1020210024915A KR20220061811A (ko) 2020-11-06 2021-02-24 카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/939,552 Continuation US20230007149A1 (en) 2020-11-06 2022-09-07 Electronic device including camera module and method for operating the electronic device

Publications (1)

Publication Number Publication Date
WO2022097981A1 true WO2022097981A1 (ko) 2022-05-12

Family

ID=81457969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/015069 WO2022097981A1 (ko) 2020-11-06 2021-10-26 카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법

Country Status (3)

Country Link
US (1) US20230007149A1 (ko)
EP (1) EP4184284A4 (ko)
WO (1) WO2022097981A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11838433B1 (en) * 2022-10-17 2023-12-05 Motorola Mobility Llc Electronic devices with translating flexible displays and corresponding methods for automatic transition to peek position

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180012688A (ko) * 2016-07-27 2018-02-06 삼성전기주식회사 카메라 모듈 및 이를 포함하는 휴대용 전자 기기
KR20180041040A (ko) * 2016-10-13 2018-04-23 삼성전기주식회사 카메라 모듈 및 이를 포함하는 휴대용 전자기기
US20190253542A1 (en) * 2018-02-09 2019-08-15 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Mobile phone
KR20190101605A (ko) * 2018-02-23 2019-09-02 삼성전자주식회사 이동 가능한 플렉서블 디스플레이를 포함하는 전자 장치
KR20200117741A (ko) * 2019-04-05 2020-10-14 엘지전자 주식회사 롤-슬라이드 이동 단말기

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102067069B1 (ko) * 2017-06-16 2020-01-16 삼성전기주식회사 카메라 모듈
KR102266152B1 (ko) * 2018-02-22 2021-06-17 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
CN111474809B (zh) * 2020-04-30 2021-08-20 Oppo广东移动通信有限公司 电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180012688A (ko) * 2016-07-27 2018-02-06 삼성전기주식회사 카메라 모듈 및 이를 포함하는 휴대용 전자 기기
KR20180041040A (ko) * 2016-10-13 2018-04-23 삼성전기주식회사 카메라 모듈 및 이를 포함하는 휴대용 전자기기
US20190253542A1 (en) * 2018-02-09 2019-08-15 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Mobile phone
KR20190101605A (ko) * 2018-02-23 2019-09-02 삼성전자주식회사 이동 가능한 플렉서블 디스플레이를 포함하는 전자 장치
KR20200117741A (ko) * 2019-04-05 2020-10-14 엘지전자 주식회사 롤-슬라이드 이동 단말기

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4184284A4 *

Also Published As

Publication number Publication date
EP4184284A4 (en) 2024-01-10
US20230007149A1 (en) 2023-01-05
EP4184284A1 (en) 2023-05-24

Similar Documents

Publication Publication Date Title
WO2022030970A1 (ko) 폴더블 전자 장치 및 상기 폴더블 전자 장치에서 정보를 표시하는 방법
WO2021246730A1 (ko) 인터포저를 포함하는 전자 장치
WO2020060235A1 (ko) 카메라 장치
WO2022097981A1 (ko) 카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법
WO2022050566A1 (ko) 슬라이더블 전자 장치 및 상기 전자 장치에서 투명 디스플레이를 이용하는 방법
WO2022050544A1 (ko) 슬라이더블 전자 장치 및 상기 전자 장치에서 투명 디스플레이를 이용하는 방법
WO2022014958A1 (ko) 확장 가능한 디스플레이를 포함하는 전자 장치
WO2022231193A1 (ko) 카메라 모듈 및 이를 포함하는 전자 장치
WO2022015011A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2022014976A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2022015012A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2022103009A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그의 프리뷰 제어 방법
WO2024039165A1 (ko) 외부 전자 장치의 설정 정보를 결정하는 전자 장치 및 전자 장치의 동작 방법
WO2023068602A1 (ko) 카메라 모듈 및 이를 포함하는 전자 장치
WO2022182053A1 (ko) 카메라 모듈 및 이를 포함하는 전자 장치
WO2024053905A1 (ko) 압전 모터를 포함하는 카메라 모듈
WO2022025719A1 (ko) 카메라 모듈 및 이를 포함하는 전자 장치
WO2023106722A1 (ko) 카메라 모듈 및 이를 포함하는 전자 장치
WO2021141453A1 (en) Camera module and electronic device including the same
WO2022014998A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2023204519A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 상기 전자 장치에서 상기 디스플레이의 크기를 조절하는 방법
WO2022014994A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2022119413A1 (ko) 플렉서블 디스플레이를 갖는 전자 장치 및 그의 상태 변경에 따른 촬영 방법
WO2023058887A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2023287007A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21889446

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021889446

Country of ref document: EP

Effective date: 20230220

NENP Non-entry into the national phase

Ref country code: DE