WO2021112490A1 - 카메라를 포함하는 폴더블 전자 장치 - Google Patents
카메라를 포함하는 폴더블 전자 장치 Download PDFInfo
- Publication number
- WO2021112490A1 WO2021112490A1 PCT/KR2020/016929 KR2020016929W WO2021112490A1 WO 2021112490 A1 WO2021112490 A1 WO 2021112490A1 KR 2020016929 W KR2020016929 W KR 2020016929W WO 2021112490 A1 WO2021112490 A1 WO 2021112490A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- electronic device
- camera
- display
- angle
- display area
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F9/00—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
- G09F9/30—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
- G09F9/301—Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements flexible foldable or roll-able electronic displays, e.g. thin LCD, OLED
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1615—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
- G06F1/1616—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1641—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1652—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1675—Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
- G06F1/1677—Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/53—Constructional details of electronic viewfinders, e.g. rotatable or detachable
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/02—Composition of display devices
- G09G2300/023—Display panel composed of stacked panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2356/00—Detection of the display position w.r.t. other display screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
Definitions
- Various embodiments of the present disclosure relate to a foldable electronic device including a camera.
- a typical bar type electronic device has a camera disposed to face a display, it may be difficult for a user using the camera to take pictures and videos from various angles. The reason is that in the case of a low-angle shot in which the camera looks down from the top or a high-angle shot in which the camera looks up from the bottom, depending on the height of the electronic device, the display is not visible to the user, so the user This is because it is difficult to check the preview image, and it is also difficult to operate the camera through the display.
- An electronic device includes a housing including a plurality of parts and at least one hinge structure connecting the plurality of parts, and a first hinge structure among the at least one hinge structure is a second one of the plurality of parts. disposed between the first part and the second part to connect the first part and the second part, a first sensor disposed on the first part, a second sensor disposed on the second part, formed by the housing A display disposed in space and bent according to an angle formed by each of the plurality of parts, a first camera and the first sensor disposed on a surface opposite to the display in the first part, the second sensor; at least one processor electrically connected to the display and the first camera, wherein the at least one processor executes a camera application associated with the first camera and based on a value obtained by the first sensor Identify the posture of the first part, identify the posture of the second part based on the value obtained by the second sensor, and identify the posture of the identified first part and the posture of the identified second part an angle formed by the first part and the second part is identified based
- a preview image acquired by a camera is displayed, and when the angle is within a second specified range, the preview image is displayed in the first display area and the second display area corresponding to the first part among the display areas of the display.
- display and a user interface (UI) of the camera application may be set to be displayed through the display.
- UI user interface
- An electronic device includes a first part, a second part, a third part, a first hinge structure connecting the first part and the second part, and a second part connecting the second part and the third part
- a housing including a second hinge structure, at least one sensor disposed in the housing, a flexible display disposed in a space formed by the housing, and a first camera disposed on a surface opposite to the flexible display in the first part ,
- a second camera disposed on a surface on which the flexible display is disposed in the third part and at least one processor electrically connected to the at least one sensor, the display, the first camera, and the second camera,
- the at least one processor executes a camera application associated with the first camera, and an angle between the second part and the third part is a first designated angle range based on a value obtained by the at least one sensor.
- recognizing the face of the user of the electronic device through the second camera, and comparing the recognized face with a face included in an image obtained through the second camera after the recognition The user's face is tracked, and a preview image obtained by the first camera is displayed on the area of the display corresponding to the third part based on the identification and the tracking, and a user interface (UI (user interface) of the camera application is displayed. ) may be set to be displayed on the area of the display as overlapping with the preview image.
- UI user interface
- an electronic device that allows a user to conveniently take a picture from an angle desired by a user by variously displaying a preview image and a user interface (UI) of a camera application according to the posture of the foldable electronic device.
- UI user interface
- the electronic device displays a preview image of the camera and the camera on the display area of the flexible display that can be bent toward the user.
- UI related to the application can be displayed.
- the electronic device may display a UI indicating that the direction the camera faces is perpendicular to the ground on the flexible display.
- FIG. 1 is a block diagram of an electronic device in a network environment according to an embodiment.
- FIG 2 illustrates an electronic device according to an embodiment.
- FIG. 3 illustrates an execution screen of an application related to a camera module according to an exemplary embodiment.
- FIG. 4 illustrates an example in which an electronic device operates in a first mode according to an embodiment.
- FIG 5 illustrates another example in which an electronic device operates in a first mode according to an embodiment.
- FIG. 6 illustrates an example in which an electronic device operates in a second mode according to an embodiment.
- FIG. 7 illustrates an example in which an electronic device operates in a third mode according to an embodiment.
- FIG. 8 is a flowchart illustrating a method of operating an electronic device in a first mode to a third mode according to an exemplary embodiment.
- FIG 9 illustrates an electronic device according to another embodiment.
- FIG. 10 illustrates a folded state of an electronic device according to an exemplary embodiment.
- FIG. 11 illustrates a method for an electronic device to recognize a user's face according to an embodiment.
- FIG. 12 illustrates an example in which an electronic device operates in a first mode according to an embodiment.
- FIG. 13 illustrates an example in which an electronic device operates in a second mode according to an embodiment.
- FIG. 14 illustrates an example in which an electronic device operates in a third mode, according to an embodiment.
- FIG. 15 illustrates an example in which an electronic device operates in a fourth mode according to an embodiment.
- FIG. 16 illustrates an example in which an electronic device operates in a fifth mode according to an embodiment.
- FIG 17 illustrates an example in which an electronic device operates in a sixth mode according to an embodiment.
- FIG. 18 illustrates an example in which an electronic device operates in a seventh mode according to an embodiment.
- 19 is a flowchart illustrating a method of operating an electronic device in a first mode to a fourth mode according to an embodiment.
- 20 is a flowchart illustrating a method of operating an electronic device in a fifth mode to a seventh mode according to an embodiment.
- 21 illustrates an example in which an electronic device displays a preview image acquired by a second camera, according to an embodiment.
- FIG. 22 illustrates an example in which an electronic device displays a preview image by correcting an image acquired by a second camera, according to an embodiment.
- FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to an exemplary embodiment.
- the electronic device 101 communicates with the electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
- a first network 198 eg, a short-range wireless communication network
- a second network 199 e.g., a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
- the electronic device 101 includes a processor 120 , a memory 130 , an input device 150 , a sound output device 155 , a display device 160 , an audio module 170 , and a sensor module ( 176 , interface 177 , haptic module 179 , camera module 180 , power management module 188 , battery 189 , communication module 190 , subscriber identification module 196 , or antenna module 197 . ) may be included. In some embodiments, at least one of these components (eg, the display device 160 or the camera module 180 ) may be omitted or one or more other components may be added to the electronic device 101 . In some embodiments, some of these components may be implemented as a single integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while being embedded in the display device 160 (eg, a display).
- the sensor module 176 eg, a fingerprint sensor, an iris sensor, or an illumina
- the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190) to the volatile memory 132 . may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
- software eg, a program 140
- the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190) to the volatile memory 132 .
- the volatile memory 132 may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
- the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and an auxiliary processor 123 (eg, a graphic processing unit, an image signal processor) that can be operated independently or together with the main processor 121 , a sensor hub processor, or a communication processor). Additionally or alternatively, the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function. The auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
- a main processor 121 eg, a central processing unit or an application processor
- an auxiliary processor 123 eg, a graphic processing unit, an image signal processor
- the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function.
- the auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
- the coprocessor 123 may be, for example, on behalf of the main processor 121 while the main processor 121 is in an active (eg, sleep) state, or when the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
- the auxiliary processor 123 eg, an image signal processor or a communication processor
- the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176 ) of the electronic device 101 .
- the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
- the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
- the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
- the input device 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
- the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
- the sound output device 155 may output a sound signal to the outside of the electronic device 101 .
- the sound output device 155 may include, for example, a speaker or a receiver.
- the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to an embodiment, the receiver may be implemented separately from or as a part of the speaker.
- the display device 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
- the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
- the display device 160 may include a touch circuitry configured to sense a touch or a sensor circuit (eg, a pressure sensor) configured to measure the intensity of a force generated by the touch. have.
- the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input device 150 , or an external electronic device (eg, a sound output device 155 ) connected directly or wirelessly with the electronic device 101 . The sound may be output through the electronic device 102 (eg, a speaker or a headphone).
- an external electronic device eg, a sound output device 155
- the sound may be output through the electronic device 102 (eg, a speaker or a headphone).
- the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
- the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
- the interface 177 may support one or more specified protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
- the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
- the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
- the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
- the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
- the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
- the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
- the power management module 188 may manage power supplied to the electronic device 101 .
- the power management module 388 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
- PMIC power management integrated circuit
- the battery 189 may supply power to at least one component of the electronic device 101 .
- the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
- the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication through the established communication channel.
- the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
- the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a local area network (LAN) communication module, or a power line communication module).
- a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, Wi-Fi direct, or infrared data association (IrDA)) or a second network 199 (eg, a cellular network, the Internet).
- a first network 198 eg, a short-range communication network such as Bluetooth, Wi-Fi direct, or infrared data association (IrDA)
- a second network 199 eg, a cellular network, the Internet.
- the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
- the electronic device 101 may be identified and authenticated.
- IMSI International Mobile Subscriber Identifier
- the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
- the antenna module may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
- the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
- other components eg, RFIC
- other than the radiator may be additionally formed as a part of the antenna module 197 .
- peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
- GPIO general purpose input and output
- SPI serial peripheral interface
- MIPI mobile industry processor interface
- the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
- Each of the electronic devices 102 and 104 may be the same or a different type of the electronic device 101 .
- all or part of the operations performed by the electronic device 101 may be performed by one or more of the external electronic devices 102 , 104 , or 108 .
- the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
- one or more external electronic devices may be requested to perform at least a part of the function or the service.
- the one or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
- the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
- cloud computing, distributed computing, or client-server computing technology may be used.
- Electronic devices may be devices of various types.
- the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
- a portable communication device eg, a smart phone
- a computer device e.g., a smart phone
- a portable multimedia device e.g., a portable medical device
- a camera e.g., a portable medical device
- a camera e.g., a portable medical device
- a camera e.g., a portable medical device
- a camera e.g., a camera
- a wearable device e.g., a smart bracelet
- a home appliance device e.g., a smart bracelet
- the electronic device according to the embodiment of the present document is not limited to the above-described devices.
- first”, “second”, or “first” or “second” may be used simply to distinguish the component from other such components, and refer to those components in other aspects (eg, importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
- module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.
- a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
- the module may be implemented in the form of an application-specific integrated circuit (ASIC).
- ASIC application-specific integrated circuit
- one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
- the processor eg, the processor 120
- the device eg, the electronic device 101
- the one or more instructions may include code generated by a compiler or code executable by an interpreter.
- the device-readable storage medium may be provided in the form of a non-transitory storage medium.
- 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is different from the case where data is semi-permanently stored in the storage medium. It does not distinguish between temporary storage cases.
- a signal eg, electromagnetic wave
- the method according to various embodiments disclosed in this document may be provided by being included in a computer program product.
- Computer program products may be traded between sellers and buyers as commodities.
- the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones).
- a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
- each component eg, a module or a program of the above-described components may include a singular or a plurality of entities.
- one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
- a plurality of components eg, a module or a program
- the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
- operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.
- FIG 2 illustrates an electronic device 101 according to an embodiment.
- the electronic device 101 may include a housing 210 , a flexible display 160 , an auxiliary display 164 , and a camera module 180 .
- the electronic device 101 according to an embodiment may include at least some of the components of FIG. 1 that are not shown in FIG. 2 .
- a surface on which the flexible display 160 is visible is defined as the front surface of the electronic device 101, and a surface opposite to the front surface is defined as the electronic device ( 101) as the back side.
- the housing 210 may include a first part 211 , a second part 212 , and a connection part 213 .
- the first part 211 and the second part 212 may be disposed to face each other with respect to the connection part 213 .
- the first part 211 may be disposed in contact with one side of the connection part 213
- the second part 212 may be disposed in contact with the other side of the connection part 213 opposite to the one side.
- the first part 211 and the second part 212 may be coupled to the connection part 213 and may rotate about the connection part 213 (or the folding axis A).
- the first part 211 may be connected to the second part 212 through the connection part 213 .
- connection part 213 may be disposed between the first part 211 and the second part 212 .
- various mechanisms may be applied to the connection part 213 so that the first part 211 and the second part 212 can rotate.
- the connection part 213 may include a hinge structure including a plurality of gears, but is not limited thereto.
- the connection part 213 may have a multi-joint structure.
- connection part 213 may be integrally formed with the first part 211 and the second part 212 .
- a part of the connection part 213 may be integrally formed with the first part 211 or the second part 212 , and the remaining part may be integrally formed with the second part 212 or the first part 211 .
- the connection part 213 may be integrally formed with the first part 211 or the second part 212 .
- all of the first part 211 , the second part 212 , and the connection part 213 may be integrally formed.
- the housing 210 may include a metal and/or a polymer.
- the flexible display 160 is disposed in a space formed by the housing 210 and can be seen from the outside of the electronic device 101 .
- a portion of the flexible display 160 may be accommodated in a space formed by the housing 210 , and the remaining portion may be exposed to the outside.
- the flexible display 160 may be bent according to a folding operation of the housing 210 .
- the flexible display 160 may be bent at an angle corresponding to the angle formed by the first part 211 and the second part 212 .
- the flexible display 160 may form at least a portion of the front surface of the electronic device 101 .
- most of the front surface of the electronic device 160 may be formed by the flexible display 160 , and the remaining part may be formed by the housing 210 surrounding the flexible display 160 .
- the entire front surface of the electronic device 160 may be formed by the flexible display 160 .
- the flexible display 160 includes a first display area 161 corresponding to the first part 211 , a second display area 162 corresponding to the second part 212 , and a connection part 213 . and a third display area 163 corresponding to .
- the division of the display area of the flexible display 160 may be defined by other criteria. For example, an area extending toward the first part 211 with respect to the folding axis A is defined as the first display area, and an area extending toward the second part 212 with respect to the folding axis A is defined. The area may be defined as the second display area. In this case, a part of the third display area 163 illustrated in FIG.
- first display area 161 and the second display area 162 defined based on the folding axis A may be seamlessly connected without being separated by the third display area 163 .
- the first display area 161 extending toward the first part 211 and the second part extending toward the second part 212 with respect to the folding axis A will be described below. 2 will be described with reference to the display area 162 .
- auxiliary display 164 may be accommodated in the space formed by the first part 211 .
- the auxiliary display 164 may be seen through the rear surface of the first part 211 .
- the electronic device 101 may not include the auxiliary display 164 or may further include an additional auxiliary display in another area.
- the camera module 180 may be disposed on a surface opposite to the flexible display 160 in the first part 211 .
- at least a part of the camera module 180 may be inserted into an opening formed on the rear surface of the first part 211 to be disposed.
- the camera module 180 may be disposed between the auxiliary display 164 and the connector 213 .
- the camera module 180 may be disposed to be spaced apart from the connector 213 .
- the camera module 180 may acquire an image through the opening.
- the first part 211 and the second part 212 may form an angle 200 according to the folding operation of the housing 210 . Since the angle at which the flexible display 160 is bent corresponds to the angle formed by the first part 211 and the second part 212 of the housing 210 , the first display area 161 and the second part of the flexible display 160 are bent. 2 The display area 162 may also form an angle 200 according to a folding operation of the housing 210 .
- the angle 200 between the first part 211 and the second part 212 may be about 180°.
- the first display area 161 and the second display area 162 of the flexible display 160 may substantially form one plane.
- the angle 200 between the first part 211 and the second part 212 may be 0° or more and less than 180°. As the electronic device 101 is folded, the first part 211 and the second part 212 may overlap each other. In an embodiment, when the electronic device 101 is in a fully folded state, at least a portion of the first display area 161 may be in contact with or close to the second display area 162 .
- the processor 120 of the electronic device 101 may identify the angle 200 formed by the housing 210 .
- the processor 120 may identify an angle formed by the first part 211 and the second part 212 using the sensor module 176 .
- the processor 120 may identify a direction in which the first part 211 and/or the second part 212 are directed by using the sensor module 176 .
- the processor 120 may use the sensor module 176 to identify whether the direction in which the first part 211 and/or the second part 212 is facing is the direction of gravity or the direction opposite to the direction of gravity. .
- the processor 120 may identify whether the first part 211 and/or the second part 212 face the ground using the sensor module 176 .
- the direction in which the first part 211 faces may be a direction (eg, direction 1) of the side surface 214 of the first part 211 located opposite to the connection part 213 .
- the direction in which the second part 212 faces may be a direction (eg, direction 2) of the side surface 215 of the second part 212 opposite to the connection part 213 .
- the processor 120 detects the postures of the first part 211 and the second part 212 using the sensor module 176 , and based on the detected postures, the first part 211 and the second part 211 .
- An example of identifying the angle formed by the two parts 212 and the directions in which the first part 211 and the second part 212 each face will be described.
- the sensor module 176 may include a plurality of sensors. For example, it may include a first sensor disposed on the first part 211 and a second sensor disposed on the second part 212 .
- the first sensor may include an acceleration sensor and a geomagnetic sensor.
- the first sensor may further include a position sensor.
- the acceleration sensor of the first sensor may detect accelerations in the x-axis, y-axis, and z-axis of the first part 211 , respectively.
- the geomagnetic sensor of the first sensor may detect the intensity of the geomagnetic field of the first part 211 in the x-axis, y-axis, and z-axis, respectively.
- the position sensor of the first sensor may calculate an angle at which the first part 211 is rotated with respect to the x-axis, y-axis, and z-axis based on the values obtained by the acceleration sensor and the geomagnetic sensor. have.
- the angle at which the first part 211 is rotated with respect to the x-axis may be, for example, an inclination angle of the first part 211 .
- the inclination angle of the first part 211 may be, for example, an angle formed by a plane parallel to the first display area 161 and a plane parallel to the ground of the first part 211 . If the first part 211 is placed parallel to the ground and the side surface 214 is rotated to approach the ground, the inclination angle may be positive, and when the side surface 214 is rotated away from the ground, the inclination angle is negative.
- the processor 120 determines that the first part 211 faces the direction of gravity when the inclination angle is positive, and determines that the first part 211 faces the direction opposite to the gravity when the inclination angle is negative. can do.
- the processor 120 determines that the first part 211 faces the ground, and when the inclination angle is negative, determines that the first part 211 does not face the ground.
- the angle at which the first part 211 is rotated with respect to the y-axis may be, for example, a roll angle of the first part 211 .
- the roll angle of the first part 211 may be, for example, an angle between a plane perpendicular to the first part 211 and a plane perpendicular to the ground.
- the roll angle may be positive, and the first part 211 may be positive. If you tilt to the right, the roll angle can be negative.
- the angle at which the first part 211 is rotated with respect to the z-axis may be, for example, an azimuth of the first part 211 .
- the azimuth angle of the first part 211 may be an angle between a direction in which the side surface 214 of the first part 211 faces and magnetic north. If the side surface 214 of the first part 211 faces magnetic north, the azimuth may be 0°.
- the principle of identifying the direction of the first part 211 using the above-described first sensor may be equally applied to the second part 212 .
- the second part 212 may include a second sensor corresponding to the first sensor.
- the geomagnetic sensor may be replaced with a gyro sensor.
- acceleration sensor geomagnetic sensor
- gyro sensor may be implemented as hardware, and the position sensor may be implemented as hardware or software.
- the position sensor may be included in the processor 12 .
- the processor 120 performs the first part 211 and the second part based on the posture of the first part 211 and the posture of the second part 212 identified using the sensor module 176 .
- An angle formed by (212) can be identified.
- the method of the processor 120 detecting the posture of the first part 211 and the second part 212 and/or the method of identifying the angle formed by the first part 211 and the second part 212 is It is not limited to the above-described example, and various methods used in the art may be applied.
- the configuration of the sensor module 176 may also vary according to a method in which the processor 120 identifies the postures of the first part 211 and the second part 212 .
- the processor 120 is configured to perform a posture of the electronic device 101 based on the value obtained by the sensor module 176 , for example, the relative positions of the first part 211 and the second part 212 . can be judged In an embodiment, the processor 120 may determine whether the first part 211 is positioned relatively above or below the second part 212 . In an embodiment, when the first part 211 is positioned relatively lower than the second part 212 , the first part 211 may be closer to the ground than the second part 212 . . In an embodiment, when the first part 211 is positioned relatively lower than the second part 212 , the side surface 214 of the first part 211 is the side surface 215 of the second part 212 . ) may be closer to the ground than
- the processor 120 may identify a relative distance between the first part 211 and the second part 212 from the ground based on the value obtained by the sensor module 176 . have. For example, the processor 120 may identify that the first part 211 is located closer to or farther from the ground than the second part 212 by using the sensor module 176 . For example, the processor 120 uses the sensor module 176 to determine whether the side surface 214 of the first part 211 is located closer to the ground than the side surface 215 of the second part 212 . can be judged
- the side surface 214 of the first part 211 may be located opposite to the connection part 213 .
- the side surface 214 of the first part 211 may be an edge farthest from the connection part 213 among the edges of the first part 211 .
- the side surface 215 of the second part 212 may be located opposite the connector 213 .
- the side surface 215 of the second part 212 may be an edge farthest from the connection part 213 among the edges of the second part 212 .
- FIG 3 illustrates an execution screen of an application related to the camera module 180 according to an embodiment.
- the execution screen of the application related to the camera module 180 is a preview screen 301 , a control screen 302 , and a combined screen 303 . ) may be included.
- the electronic device 101 displays the preview screen 301 and the control screen 302 on the flexible display 160, or the preview screen 301 and the control screen ( The combined screen 303 on which 302 is overlapped may be displayed on the flexible display 160 .
- the preview screen 301 may include a preview image of the camera module 180 .
- the electronic device 101 (or the processor 120 ) may acquire a preview image based on at least a part of the image acquired by the camera module 180 , and use the acquired preview image through the flexible display 160 . can be displayed
- the control screen 302 may include a user interface (UI) for controlling the camera module 180 .
- the UI may include visual objects corresponding to control functions of the camera module 180 .
- the visual objects include a shutter, a flash setting, a sensitivity setting, a focus setting, a white balance setting, a timer setting, an exposure setting, and a macro photography. It may correspond to at least one of setting, setting menu entry, and gallery entry, but is not limited by the above-described examples.
- the user of the electronic device 101 may touch visual objects displayed on the flexible display 160 to execute a control function of the camera module 180 corresponding to the touched visual object.
- the combination screen 303 may include a preview screen 301 and a control screen 302 .
- the electronic device 101 may display the combined screen 303 in which the preview screen 301 and the control screen 302 are overlapped through the flexible display 160 .
- FIG 4 illustrates an example in which the electronic device 101 operates in the first mode according to an embodiment.
- the electronic device 101 may operate in a first mode.
- the first mode of the electronic device 101 may mean controlling an application related to the camera module 180 in the first mode.
- the processor 120 determines whether the angle formed by the first part 211 and the second part 212 is within the first designated angle range and the posture of the electronic device 101 satisfies the designated condition. It may be determined, and the electronic device 101 may operate in the first mode according to the determination result.
- the first designated angle range may be included in an angle range of 0° or more and less than 180°, and may include 90°.
- the specified condition may be a condition in which the first part 211 faces in a direction of gravity and the second part 212 faces in a direction opposite to gravity.
- the specified condition may be a condition in which the first part 211 faces the ground and the second part 212 does not face the ground.
- the specified condition may be a condition in which the first part 211 is located closer to the ground than the second part 212 .
- the specified condition may be a condition in which the posture of the electronic device 101 is positioned below the first part 211 and the second part 212 .
- the processor 120 when the processor 120 determines that the angle formed by the first part 211 and the second part 212 is within the first specified angle range and the posture of the electronic device 101 satisfies the specified condition, The electronic device 101 may operate in the first mode.
- the processor 120 of the electronic device 101 operating in the first mode displays a control screen 302 of an application related to the camera module 180 in the first display area 161 of the flexible display 160 . may be displayed, and a preview screen 301 including a preview image acquired by the camera module 180 may be displayed on the second display area 162 .
- the user of the electronic device 101 may take a picture from a high-angle using the electronic device 101 and the camera module 180 operating in the first mode. Even if the electronic device 101 is higher than the user's eye level, it is convenient to use the preview screen 301 displayed on the second display area 162 and the control screen 302 displayed on the first display area 161 . You can take high-angle shots.
- the user of the electronic device 101 may take a picture at an angle looking down from the top using the electronic device 101 and the camera module 180 operating in the first mode. Even if the electronic device 101 is higher than the user's eye level, it is convenient to use the preview screen 301 displayed on the second display area 162 and the control screen 302 displayed on the first display area 161 . You can shoot from a top-down angle.
- FIG 5 illustrates another example in which the electronic device 101 operates in the first mode according to an embodiment.
- the electronic device 101 may operate in a first mode.
- the processor 120 identifies a direction (eg, direction 1) to which the first part 211 is directed by using the sensor module 176 .
- the processor 120 may determine whether the direction in which the first part 211 faces is substantially perpendicular to the direction of gravity (or substantially parallel to the ground).
- the direction in which the camera module 180 faces may be substantially the same as the direction of gravity or may be perpendicular to the ground.
- the processor 120 uses the sensor module 176 so that a plane formed by the first part 211 (eg, a plane in which the first part 211 extends in the direction 1) is parallel to the ground. It can be determined whether or not
- the processor 120 when the direction in which the first part 211 is directed is substantially perpendicular to the direction of gravity (or when the plane formed by the first part 211 is parallel to the ground), the processor 120 is the camera module ( A user interface (UI) 501 indicating that the camera angle (or shooting angle) of 180 is substantially perpendicular to the ground may be displayed in the second display area 162 overlapping the preview screen 301 . In an embodiment, the processor 120 may display the control screen 302 on the first display area 161 .
- the UI 501 may include a visual object indicating that the camera module 180 is substantially perpendicular to the ground direction.
- the user of the electronic device 101 may take a picture at a camera angle of an overhead camera angle using the electronic device 101 and the camera module 180 operating according to another example of the first mode described above.
- the photographing of the overhead camera angle may be photographing in a direction in which the camera module 180 faces the ground in front.
- the photographing of the overhead camera angle may be photographed in a state in which the direction in which the camera module 180 is directed is substantially perpendicular to the ground.
- the photographing of the overhead camera angle may be photographing at an angle perpendicular to the ground from top to bottom.
- the user of the electronic device 101 may take a picture from an angle looking down from top to bottom through the electronic device 101 and the camera module 180 operating according to another example of the first mode described above.
- the user of the electronic device 101 may conveniently and accurately take a picture at an angle looking down from top to bottom through a visual object indicating that the camera angle is perpendicular to the ground.
- FIG 6 illustrates an example in which the electronic device 101 operates in the second mode according to an embodiment.
- the electronic device 101 may operate in the second mode.
- the second mode of the electronic device 101 may mean controlling an application related to the camera module 180 in the second mode.
- the processor 120 determines whether an angle formed by the first part 211 and the second part 212 is within a first specified angle range and the posture of the electronic device 101 satisfies a specified condition can do.
- the processor 120 may cause the electronic device 101 to operate in the second mode according to the determination result.
- the first part 211 faces in the direction opposite to gravity (or the direction opposite to the ground) and the second part 212 moves in the direction of gravity ( or the ground direction).
- the second part 212 when the posture of the electronic device 101 does not satisfy the specified condition, the second part 212 may be located closer to the ground than the first part 211 .
- the second part 212 when the posture of the electronic device 101 does not satisfy the specified condition, the second part 212 may be positioned relatively lower than the first part 211 .
- the side surface 215 of the second part 212 is relatively lower than the side surface 214 of the first part 211 . It may be the case where
- electronic Device 101 may operate in a second mode.
- the processor 120 of the electronic device 101 operating in the second mode displays the combined screen 303 in which the preview screen 301 and the control screen 302 are combined on the second display area 162 .
- the processor 120 may overlap the preview screen 301 and the control screen 302 to display them on the second display area 162 .
- the user of the electronic device 101 may take a picture at a low-angle using the electronic device 101 and the camera module 180 operating in the second mode.
- a preview image displayed on the second display area 162 and a UI related to a camera application can be used to conveniently take a low-angle shot. can do.
- the user of the electronic device 101 may take a picture from an angle looking up from the bottom by using the electronic device 101 and the camera module 180 operating in the second mode.
- the preview image displayed on the second display area 162 and the UI related to the camera application allow for convenient shooting at an angle from bottom to top. can do.
- FIG 7 illustrates an example in which the electronic device 101 operates in the third mode, according to an embodiment.
- the electronic device 101 may operate in a third mode.
- the third mode of the electronic device 101 may mean controlling an application related to the camera module 180 in the third mode.
- the processor 120 identifies whether an angle between the first part 211 and the second part 212 is within a second specified angle range, and controls the electronic device 101 according to the identification result. It can be made to operate in a third mode.
- the second specified angular range may be greater than 90° and less than or equal to 180°.
- the second designated angular range may include 180°, and may not overlap the first designated angular range.
- the angle formed by the first part 211 and the second part 212 when the angle formed by the first part 211 and the second part 212 is substantially 180°, it may be included in the second designated angle range.
- the processor 120 of the electronic device 101 operating in the third mode is displayed on the entire display area of the flexible display 160 including the first display area 161 and the second display area 162 .
- a combined screen 303 in which the preview screen 301 and the control screen 302 are superimposed may be displayed.
- FIG. 8 is a flowchart illustrating a method in which the electronic device 101 operates in a first mode to a third mode according to an embodiment.
- the electronic device 101 may execute an application related to a camera.
- the processor 101 may execute an application related to the camera module 180 .
- the electronic device 101 may identify whether an angle formed by the first part 211 and the second part 212 is within a first designated angle range or a second designated angle range.
- the processor 120 may identify the angle formed by the first part 211 and the second part 212 based on the value (or data) obtained by the sensor module 176, and the identification It may be determined whether the angle based on ? is within the first designated angle range or within the second designated angle range.
- the first designated angle range may be included in an angle range of 0° or more and less than 180°, but may include an angle of 90°.
- the second specified angle range may be included in an angle range of greater than 90° and less than or equal to 180°, but may include an angle of 180°.
- the first designated angular range and the second designated angular range may not overlap.
- the electronic device 101 performs operation 805 based on the determination, and the first part 211 and When the angle formed by the second part 212 is within the second specified angle range, operation 811 may be performed.
- the electronic device 101 may identify whether the posture of the electronic device 101 satisfies a specified condition.
- the processor 120 may identify whether the posture of the electronic device 101 satisfies a specified condition based on a value (or data) obtained by the sensor module 176 .
- the specified condition may be, for example, a condition in which the first part 211 faces the direction of gravity (or the ground direction) and the second part 212 faces the direction opposite to the gravity (or the direction opposite to the ground).
- the specified condition may be, for example, a condition in which the first part 211 is located closer to the ground than the second part 212 .
- the specified condition may be, for example, a condition in which the side surface 214 of the first part 211 is located closer to the ground than the side surface 215 of the second part 212 .
- the specified condition may be, for example, a condition in which the first part 211 is relatively lower than the second part 212 .
- the specified condition may be, for example, a condition in which the side surface 214 of the first part 211 is relatively lower than the side surface 215 of the second part 212 .
- the electronic device 101 may perform operation 807 , otherwise, the electronic device 101 may perform operation 809 .
- the electronic device 101 may operate in the first mode. For example, when the angle formed by the first part 211 and the second part 212 is within the first designated angle range and the posture of the electronic device 101 satisfies the designated condition, the processor 120 determines that the electronic device (101) can be made to operate in the first mode.
- the electronic device 101 displays a control screen 302 of an application related to the camera module 180 on the first display area 161 in the first mode, and displays the camera module on the second display area 162 .
- the preview screen 301 obtained by 180 may be displayed.
- the UI 501 indicating the state is displayed on the second display area. (162) can be indicated.
- the electronic device 101 may operate in the second mode. For example, when the angle formed by the first part 211 and the second part 212 is within the first designated angle range and the posture of the electronic device 101 does not satisfy the designated condition, The device 101 may be operated in the second mode. According to an embodiment, the electronic device 101 operating in the second mode may display the combined screen 303 in which the preview screen 301 and the control screen 302 are overlapped on the second display area 162 .
- the electronic device 101 may operate in a third mode.
- the processor 120 may operate the electronic device 101 in the third mode.
- the electronic device 101 operating in the third mode includes the combined screen 303 on all the display areas of the flexible display 160 including the first display area 161 and the second display area 162 . can be expanded and displayed.
- FIG 9 illustrates an electronic device 901 according to another embodiment.
- the electronic device 901 includes a housing 910 , a flexible display 960 , a first camera 981 (eg, the camera module 180 of FIG. 2 ), and a second camera 982 ( For example, the camera module 180 of FIG. 2 ) may be included.
- the electronic device 901 may include at least some of the components of the electronic device 101 of FIG. 1 .
- a surface on which the flexible display 960 is visible is defined as the front surface of the electronic device 901
- the surface opposite to the front surface is defined as the electronic device ( 901) as the back side.
- the housing 910 may include a first part 911 , a second part 912 , and a third part 913 .
- the first part 911 may be coupled to the second part 912 to be rotatable about the second part 912 .
- the second part 912 may be coupled to the third part 913 to be rotatable about the third part 913 .
- the third part 913 may be connected to the second part 912 to be rotatable about the second part 912 .
- the housing 910 may include a metal and/or a polymer.
- the flexible display 960 may be disposed over the first part 911 , the second part 912 , and the third part 913 of the housing 910 . At least a portion of the flexible display 960 is accommodated in a recess formed by the housing 910 , and at least a portion of the flexible display 960 can be seen from the outside of the electronic device 901 .
- the flexible display 960 may be bent according to a rotation operation of a plurality of parts included in the housing 910 .
- the flexible display 960 may be bent or deformed to correspond to an angle formed by the first part 911 , the second part 912 , and the third part 913 .
- the flexible display 960 may form a majority of the front surface of the electronic device 901 .
- the rest of the front surface may be formed by the housing 910 .
- the flexible display 960 may form the entire front surface of the electronic device 901 .
- the flexible display 960 includes a first display area 961 corresponding to the first part 911 , a second display area 962 corresponding to the second part 912 , and a third part ( A third display area 963 corresponding to 913 may be included.
- the first camera 981 may be disposed on the rear side of the first part 911 .
- at least a portion of the first camera 981 may be inserted into an opening formed on the rear surface of the first part 911 to be disposed.
- the opening may be formed on a surface of the first part 911 facing the flexible display 960 .
- the first camera 981 may be viewed from the outside through the opening, and may acquire information about an image acquired through the opening.
- the second camera 982 may be disposed in front of the third part 913 .
- at least a portion of the second camera 982 may be accommodated in an opening formed in the front surface of the third part 913 .
- the opening may be formed inside the third display area 963 , and in another exemplary embodiment, unlike that illustrated in FIG. 9 , in the third part 913 outside the third display area 963 . may be formed.
- the second camera 982 according to an embodiment may acquire an image through the opening.
- a direction in which the first part 911 and the second part 912 are folded may be different from a direction in which the second part 912 and the third part 913 are folded.
- the first display area 961 and the second display area 962 may be hidden from view, and the second part 912 and When the third part 913 is folded, the third display area 963 may be visible from the outside. That is, the first part 911 and the second part 912 are folded in a direction so that the front surface of the electronic device 901 is in contact with each other, and the second part 912 and the third part 913 are folded in the electronic device ( 901) can be folded in a direction such that the rear surfaces are in contact with each other.
- FIG. 10 illustrates a folded state of the electronic device 901 according to an exemplary embodiment.
- an electronic device 901 may include at least one connection unit connecting a plurality of parts of a housing 910 .
- the electronic device 901 includes a first connection part 914 connecting the first part 911 and the second part 912 , and a first connection part 914 connecting the second part 912 and the third part 913 . It may include two connection parts 915 .
- the first part 911 may be connected to the second part 912 by a first connection part 914 .
- the first part 911 may rotate about the first connection part 914 .
- the second part 912 may be connected to the third part 913 by the second connection part 915 .
- the second part 912 may rotate about the second connection part 915 .
- the third part 913 may rotate about the second connection part 915 .
- first connection part 914 and the second connection part 915 may include a hinge structure.
- the description provided in relation to the connection part 213 in FIG. 2 may be equally applied.
- FIG. 2 a method in which the processor 120 of the electronic device 901 uses the sensor module 176 to identify the angle of the housing 910 and the direction of the first part 911 is described in FIG. 2 . The same can be applied.
- the sensor module 176 includes a first sensor disposed on the first part 911 , a second sensor disposed on the second part 912 , and a third sensor disposed on the third part 913 . can do.
- the processor 120 may detect the postures of the first part 911 , the second part 912 , and the third part 913 , respectively.
- the processor 120 may calculate a rotation angle of the first part 911 with respect to the x-axis, the y-axis, and the z-axis, respectively, based on the value obtained by the first sensor.
- the processor 120 may calculate a rotation angle of the second part 912 with respect to the x-axis, the y-axis, and the z-axis, respectively, based on the value obtained by the second sensor.
- the processor 120 may calculate the rotation angle of the third part 913 with respect to the x-axis, the y-axis, and the z-axis, respectively, based on the value obtained by the third sensor.
- the processor 120 may identify the direction of the first part 911 based on the calculated rotation angle of the first part 911 . For example, the processor 120 may identify whether the direction the first part 911 faces is the ground direction based on the data obtained by the sensor module 176 .
- the direction in which the first part 911 faces may be a direction in which the side surface 916 of the first part 911 faces (eg, direction 1).
- the side surface 916 of the first part 911 may be positioned opposite to the first connection part 914 .
- the side surface 916 of the first part 911 may be an edge farthest from the first connection part 914 among edges of the first part 911 .
- the processor 120 may identify an angle formed by the housing 910 based on the value obtained by the sensor module 176 . For example, the processor 120 may generate the first part 911 and the second part 912 based on the detected posture of the first part 911 and the detected posture of the second part 912 . Angle can be calculated. The processor 120 may calculate an angle between the second part 912 and the third part 913 based on the detected posture of the second part 912 and the detected posture of the third part 913 . can
- FIG 11 illustrates a method for the electronic device 901 to recognize a user's face according to an embodiment.
- the electronic device 901 may track the face 1110 of the user of the electronic device 901 using the second camera 982 .
- the processor 120 of the electronic device 901 may acquire an image including the user's face 1110 using the second camera 982 .
- the processor 120 may recognize the user's face 1110 included in the acquired image.
- the processor 120 may display a UI for the user to select whether to keep tracking of the recognized face 1110 on the flexible display 960 .
- the UI includes an image 1121 of the recognized face 1110, an object 1122 for selecting to track the recognized face 1110, and selecting not to track the recognized face 1110. It may include an object 1123 for
- the processor 120 compares the recognized face 1121 with the face included in the image acquired by the second camera 982 after the recognition. By doing so, it is possible to keep track of the user's face 1110 .
- the processor 120 may not maintain the tracking of the user's face 1110 .
- the processor 120 may track the user's face 1110 included in the image acquired by the second camera 982 without the user's selection. For example, the processor 120 may track the face 1110 of the user by comparing the face image previously registered by the user with the face image included in the image acquired by the second camera 982 .
- FIG 12 illustrates an example in which the electronic device 901 operates in the first mode according to an embodiment.
- the electronic device 901 may operate in a first mode.
- the first mode of the electronic device 901 may mean controlling an application related to the first camera 981 and/or the second camera 982 in the first mode.
- the processor 120 determines whether the angle formed by the second part 912 and the third part 913 is within the first specified angle range, and whether the user's face of the electronic device 901 is being tracked. can judge The processor 120 according to an embodiment may cause the electronic device 901 to operate in the first mode based on the identification.
- the first designated angular range may be included in an angular range of 0° or more and less than 180°, but the first designated angular range may include 90°.
- the processor 120 detects the face of the user of the electronic device 901 with the second camera 982 when the angle between the second part 911 and the third part 912 is within the first specified angle range. ), the electronic device 901 may operate in the first mode.
- the processor 120 operating in the first mode may display the combined screen 303 in which the preview screen 301 and the control screen 302 are superimposed on the third display area 963 .
- the user of the electronic device 901 may take pictures from various angles using the electronic device 901 and the first camera 981 operating in the first mode. For example, as shown in FIG. 12 , the user may take a high-angle shot, a low-angle shot, or a selfie shot according to the posture of the electronic device 901 . can
- the processor 120 tracks the face of the user of the electronic device 901 using the second camera 982 .
- the electronic device 901 may operate in the first mode.
- the electronic device 901 when the condition for determining the mode of the electronic device 901 is whether or not the user's face is being tracked, the electronic device 901 starts the operation in the mode Even if the tracking of the face of the user is not maintained, the currently operating mode may be maintained.
- the electronic device 901 when the condition for determining the mode of the electronic device 901 is whether or not the user's face is being tracked, the electronic device 901 starts the operation in the mode Even if the tracking of the face of ' is not maintained, if an angle change (eg, angle 1001 or angle 1003 of FIG. 10 ) of the housing 910 is not detected, the currently operating mode may be maintained.
- an angle change eg, angle 1001 or angle 1003 of FIG. 10
- FIG 13 illustrates an example in which the electronic device 901 operates in the second mode according to an embodiment.
- the electronic device 901 may operate in the second mode.
- the second mode of the electronic device 901 may refer to a mode for controlling the application associated with the first camera 981 and/or the second camera 982 in the second mode.
- the processor 120 determines that the angle between the second part 912 and the third part 913 is within the first specified angle range and the face of the user of the electronic device 901 is not being tracked and the first part When it is identified that the angle between 911 and the second part 912 is within the second specified angle, the electronic device 901 may operate in the second mode.
- the second angle range may be included in an angle range greater than 90° and less than or equal to 180°. However, the second angle range may include 180°.
- the first angular range and the second angular range may not overlap.
- a case in which the user's face of the electronic device 901 is not being tracked may be, for example, a case in which the user selects an object 1123 for selecting not to track the face.
- the face included in the image acquired by the second camera 982 may not match the face 1121 of the user or the face of a pre-registered user.
- the face may not be included in the image acquired by the second camera 982 or the face may not be recognized.
- the electronic device 901 operating in the second mode displays the combined screen 303 on the display area on the flexible display 960 including the first display area 961 and the second display area 962 . can be displayed
- the processor 120 sets the angle formed by the second part 912 and the third part 913 to the first designated If the angle is within the range and the face of the user of the electronic device 901 is not being tracked, the electronic device 901 may operate in the second mode.
- FIG 14 illustrates an example in which the electronic device 901 operates in the third mode according to an embodiment.
- the electronic device 901 may operate in a third mode.
- the third mode of the electronic device 901 may refer to a mode for controlling an application associated with the first camera 981 and/or the second camera 982 in the third mode.
- the processor 120 determines that the angle formed by the second part 912 and the third part 913 is within the first specified angle range, is not tracking the face of the user of the electronic device 901 , and If the angle formed by the first part 911 and the second part 912 is not within the second specified angle range and it is identified that the first part 911 faces the ground, the electronic device 901 operates in the third mode can do.
- the direction (eg, direction 1) toward the side surface 916 of the first part 911 may face the direction of gravity.
- the processor 120 operating in the third mode may display the preview screen 301 in the second display area 962 and the control screen 302 in the first display area 961 . .
- the processor 120 performs the electronic device 901 If the user's face is not being tracked and it is identified that the first part 911 faces the ground, the electronic device 901 may operate in the third mode.
- 15 illustrates an example in which the electronic device 901 operates in a fourth mode according to an embodiment.
- the electronic device 901 may operate in a fourth mode.
- the electronic device 901 when the electronic device 901 operates in the fourth mode, it may mean that an application related to the first camera 981 and/or the second camera 982 is controlled in the fourth mode.
- the processor 120 determines that the angle formed by the second part 912 and the third part 913 is within the first specified angle range, is not tracking the face of the user of the electronic device 901 , and When it is identified that the angle formed by the first part 911 and the second part 912 is not within the second specified angle range, and it is identified that the first part 911 does not face the ground, the electronic device 901 sets the fourth mode can operate as
- the side surface 916 of the first part 911 substantially faces in a direction opposite to gravity.
- the processor 120 operating in the fourth mode may display the combined screen 303 on the second display area 962 .
- the processor 120 operating in the fourth mode displays the UI 1501 in the second display area ( 962) can be indicated.
- the preset angle range may be included in the first designated angle range, but the maximum value of the preset angle range may be less than 90°.
- the UI 1501 when the user expands the second part 912 and the third part 913 , the area in which the combination screen 303 is displayed is changed from the second display area 962 to the third display area 963 . can be indicated to be changed.
- the UI 1501 may include text such as “unfold to view camera UI”.
- the processor 120 when the user of the electronic device 901 expands the second part 912 and the third part 913 , the processor 120 performs the combination screen 303 as in the first mode shown in FIG. 12 .
- the displayed area may be changed to a third display area and displayed.
- the processor 120 performs the electronic device 901 If the user's face is not being tracked and it is identified that the first part 911 does not face the ground, the electronic device 901 may operate in the fourth mode.
- FIG 16 illustrates an example in which the electronic device 901 operates in a fifth mode according to an embodiment.
- the electronic device 901 may operate in a fifth mode.
- the operation of the electronic device 901 in the fifth mode may mean controlling applications related to the first camera 981 and the second camera 982 in the fifth mode.
- the processor 120 determines that the angle between the second part 912 and the third part 913 is within the second specified angle range, and the first part 911 and the second part 912 form When it is identified that the angle is within the second designated angle range, the electronic device 901 may operate in the fifth mode.
- the second designated angle range may be included in an angle range of greater than 90° and less than or equal to 180°, and may include 180°.
- the angle between the first part 911 and the second part 912 , and the second part 912 and the third part 913 is substantially 180°. showed
- the processor 120 of the electronic device 901 operating in the fifth mode is flexible including a first display area 961 , a second display area 962 , and a third display area 963 .
- the combined screen 303 may be displayed on the entire display area of the display 960 .
- FIG 17 illustrates an example in which the electronic device 901 operates in a sixth mode according to an embodiment.
- the electronic device 901 may operate in a sixth mode.
- the sixth mode of the electronic device 901 may refer to an operation mode for controlling applications related to the first camera 981 and the second camera 982 in the sixth mode.
- the processor 120 determines that the angle between the second part 912 and the third part 913 is within the first specified angle range, and the first part 911 and the second part 912 form If the angle is not within the second specified angle range and it is identified that the first part 911 faces the ground, the electronic device 901 may operate in the sixth mode.
- the processor 120 operating in the sixth mode displays the control screen 302 in the first display area 961 , and previews the second display area 962 and the third display area 963 .
- a screen 301 may be displayed.
- the processor 120 determines that the angle between the second part 912 and the third part 913 is within the first specified angle range, and the first part 911 and the second part 912 form If the angle is not within the second specified angle range, the face of the user of the electronic device 901 is being tracked, and it is identified that the first part 911 faces the ground, the electronic device 901 operates in the sixth mode You may.
- FIG 18 illustrates an example in which the electronic device 901 operates in the seventh mode according to an embodiment.
- the electronic device 901 may operate in a seventh mode.
- the operation of the electronic device 901 in the seventh mode may mean controlling applications related to the first camera 981 and the second camera 982 in the seventh mode.
- the processor 120 determines that the angle between the second part 912 and the third part 913 is within the second specified angle range, and the first part 911 and the second part 912 form When it is identified that the angle is not within the second designated angle range and it is identified that the first part 911 does not face the ground, the electronic device 901 may operate in the seventh mode.
- the processor 120 operating in the seventh mode may display the combined screen 303 in the second display area 962 and the third display area 963 .
- the processor 120 operating in the seventh mode operates the first display area 961 and the second part 912
- the combined screen 303 being displayed through the second display area 962 may be changed and displayed in the third display area 963 .
- the angle formed by the second part 912 and the third part 913 is within the second specified angle range, and the first part 911 and the second part 912 are formed by the processor 120 .
- the electronic device 901 sets the seventh mode may work as
- 19 is a flowchart illustrating a method in which the electronic device 901 operates in a first mode to a fourth mode according to an embodiment.
- the electronic device 901 may execute an application related to a camera.
- the processor 120 may execute applications related to the first camera 981 and the second camera 982 .
- the electronic device 901 may identify whether an angle formed by the second part 912 and the third part 913 is within a first designated angle range.
- the processor 120 may identify whether the angle formed by the second part 912 and the third part 913 is within a specified angle range based on the value obtained by the sensor module 176 .
- the first designated angular range may be included in an angle range of 0° or more and less than 180°, and the first designated angular range may include 90°. If the processor 120 identifies that the angle formed by the second part 912 and the third part 913 is within the first designated angle range, operation 1905 may be performed, otherwise, operation 2005 of FIG. 20 may be performed. .
- the electronic device 901 may identify whether the user's face is being tracked. For example, the processor 120 may recognize a face included in the image acquired by the second camera 982 and track the user's face based on the recognition. If the processor 120 is tracking the face of the user of the electronic device 901 , operation 1907 may be performed, otherwise operation 1909 may be performed.
- the electronic device 901 may operate in the first mode.
- the processor 120 identifies that the angle formed by the second part 912 and the third part 913 is within a specified angular range, and that the user's face is being tracked using the second camera 982 .
- the electronic device 901 may be operated in the first mode.
- the processor 120 operating in the first mode may display the combined screen 303 in the third display area 963 .
- the electronic device 901 may identify whether an angle formed by the first part 911 and the second part 912 is within a second specified angle range. For example, if it is identified that the face of the user of the electronic device 901 is not being tracked, the processor 120 may configure the first part 911 and the second part based on the value obtained by the sensor module 176 . It may be identified whether the angle formed by 912 is within the second specified angle range.
- the second designated angle range may be included in an angle range of greater than 90° and less than or equal to 180°, and may include 180°. However, the first designated angle range and the second designated angle range may not overlap. If the angle formed by the first part 911 and the second part 912 is within the second specified angle range, operation 1911 may be performed, otherwise operation 1913 may be performed.
- the electronic device 901 may operate in the second mode.
- the processor 120 determines that the angle formed by the second part 912 and the third part 913 is within the first specified angle range, is not tracking the face of the user of the electronic device 901 , and When it is identified that the angle formed by the part 911 and the second part 912 is not within the second specified angle range, the electronic device 901 may be operated in the second mode.
- the processor 120 operating in the second mode may display the combined screen 303 in the first display area 961 and the second display area 962 .
- the electronic device 901 may identify whether the first part 911 faces the ground direction. For example, the processor 120 may identify whether the direction in which the side surface 916 of the first part 911 faces the ground direction based on the value obtained by the sensor module 176 . If the first part 911 faces the ground, operation 1915 may be performed, otherwise operation 1917 may be performed.
- the electronic device 901 may operate in a third mode.
- the processor 120 determines that the angle formed by the second part 912 and the third part 913 is within the first specified angle range, is not tracking the face of the user of the electronic device 901 , and To operate the electronic device 901 in the third mode when it is identified that the angle formed by the part 911 and the second part 912 does not form the second specified angle and the first part 911 faces the ground. can do.
- the processor 120 operating in the third mode may display the control screen 302 in the first display area 961 and the preview screen 301 in the second display area 962 . .
- the electronic device 901 may operate in a fourth mode.
- the processor 120 determines that the angle formed by the second part 912 and the third part 913 is within the first specified angle range, is not tracking the face of the user of the electronic device 901 , and When it is identified that the angle formed by the part 911 and the second part 912 is not within the second designated angle range, and it is identified that the first part 911 does not face the ground, the fourth mode may be operated.
- the processor 120 operating in the fourth mode may display the combined screen 303 on the second display area 962 .
- 20 is a flowchart illustrating a method in which the electronic device 901 operates in a fifth mode to a seventh mode according to an embodiment.
- the electronic device 901 may execute an application related to a camera.
- the processor 120 may execute applications related to the first camera 981 and the second camera 982 .
- the electronic device 901 may identify whether an angle formed by the second part 912 and the third part 913 forms a second specified angle. For example, the processor 120 identifies an angle formed by the second part 912 and the third part 913 based on the value obtained by the sensor module 176 , and the angle is a second designated angle range It can be identified whether or not If the angle formed by the second part 912 and the third part 913 is within the second specified angle range, operation 2005 may be performed. Otherwise, operation 1905 of FIG. 19 may be performed.
- the electronic device 901 may identify whether an angle formed by the first part 911 and the second part 912 is within a second specified angle range. For example, the processor 120 identifies an angle formed by the first part 911 and the second part 912 based on data acquired by the sensor module 176, and based on the identification, the angle is Whether it is within the second specified angle range may be identified. If the angle formed by the first part 911 and the second part 912 is within the second specified angle range, operation 2007 may be performed. Otherwise, operation 2009 may be performed.
- the electronic device 901 may operate in a fifth mode. For example, when the angle formed by the second part 912 and the third part 913 and the angle formed by the first part 911 and the second part 912 are within the second specified angle range, , the electronic device 901 may be operated in the fifth mode.
- the processor 120 operating in the fifth mode may display the combined screen 303 in the first display area 961 , the second display area 962 , and the third display area 963 . .
- the electronic device 901 may identify whether the first part 911 faces the ground direction.
- the processor 120 may identify whether the side surface 916 of the first part 911 faces the ground direction based on the value obtained by the sensor module 176 . If the first part 911 faces the ground, operation 2011 may be performed, otherwise operation 2013 may be performed.
- the electronic device 901 may operate in a sixth mode.
- the processor 120 determines that the angle formed by the second part 912 and the third part 913 is within the second specified angle range, and the angle formed by the first part 911 and the second part 912 . is not within the second designated angle range and it is identified that the first part 911 faces the ground, the electronic device 901 may be operated in the sixth mode.
- the processor 120 operating in the sixth mode displays the control screen 302 in the first display area 961 , and previews the second display area 962 and the third display area 963 .
- a screen 301 may be displayed.
- the electronic device may operate in a seventh mode.
- the processor 120 determines that the angle formed by the second part 911 and the third part 913 is within the second specified angle range, and the angle formed by the first part 911 and the second part 912 .
- the processor 120 operating in the seventh mode may display the combined screen 303 in the second display area 962 and the third display area 963 .
- an angle between the first part 911 and the second part 912 is within a predefined angular range (eg, 0° or more and less than 45°).
- the display area of the combined screen 303 may be displayed by changing from the second display area 962 and the third display area 963 to the third display area 963 .
- 21 illustrates an example in which the electronic device 901 displays a preview image acquired by the second camera 982 according to an embodiment.
- the processor 120 may acquire an image through the second camera 982 .
- the processor 120 may identify the user's face 2101 included in the acquired image.
- the processor 120 recognizes the face included in the image acquired through the second camera 982 after identifying the user's face 2101 and compares the recognized face with the identified user's face 2101 by , the user's face 2101 may be tracked.
- the processor 120 tracks the user's face by comparing the user's face previously stored or registered in the memory of the electronic device 901 with the face included in the image acquired through the second camera 982 . You may.
- a preview image 2102 based on at least a part of an image acquired through the second camera 982 may be displayed on the flexible display 960 .
- the processor 120 may display the preview image 2102 overlapping the preview image 2110 acquired through the first camera 981 .
- the processor 120 may not display a preview image based on the second camera 982 . In this case, the processor 120 may display only the preview image 2110 obtained from the first camera 981 on the flexible display 960 .
- the preview image 2102 displayed on the flexible display 960 is faded out. It may be prevented from being displayed on the flexible display 960 .
- FIG. 22 illustrates an example in which the electronic device 901 displays a preview image by correcting an image acquired by the second camera 982 according to an exemplary embodiment.
- the processor 120 may acquire a first image 2210 , a second image 2220 , and a third image 2230 using the second camera 982 .
- the first image 2210 may be an image captured in a state in which the user's face 2201 is deviated from the center of the first image 2210 .
- the processor 120 may display the preview image 2102 by correcting the off-center user face 2201 to be positioned at the center of the image.
- the second image 2220 may be an image in which the user's face 2201 is enlarged or taken at a short distance from the second camera 982 .
- the processor 120 may display the preview image 2102 by reducing the user's face 2201 of the second image 2220 .
- the third image 2230 may be an image in which the user's face 2201 is reduced or taken from a far distance from the second camera 982 .
- the processor 120 may display the preview image 2102 by enlarging the user's face 2201 of the third image 2230 .
- An electronic device includes a housing including a plurality of parts and at least one hinge structure connecting the plurality of parts, wherein a first hinge structure of the at least one hinge structure is one of the plurality of parts. disposed between the first part and the second part to connect the first part and the second part, a first sensor disposed on the first part, a second sensor disposed on the second part, by the housing A display disposed in a space formed and bent according to an angle formed by each of the plurality of parts, a first camera and the first sensor disposed on a surface opposite to the display in the first part, and the second a sensor, the display, and at least one processor electrically connected to the first camera, wherein the at least one processor executes a camera application associated with the first camera, and receives a value obtained by the first sensor.
- An angle formed by the first part and the second part is identified based on a posture, and when the angle is within a first designated range, the display area is displayed in a second display area corresponding to the second part of the display area.
- a preview image acquired by a first camera is displayed, and when the angle is within a second specified range, the preview is displayed in a first display area and a second display area corresponding to the first part among the display areas of the display. It may be set to display an image and display a user interface (UI) of the camera application through the display.
- UI user interface
- the at least one processor is configured to determine relative positions of the first part and the second part based on the identified posture of the first part and the identified posture of the second part, and When the first part is relatively lower than the second part and the angle is within the first designated range, the UI may be set to be displayed on the first display area.
- the at least one processor previews the UI on the first display area It can be set to display overlapping images.
- the at least one processor may be configured to display the UI on the first display area and the second display area overlapping the preview image.
- the at least one processor determines whether the first part is parallel to the ground based on the identified posture of the first part, and when the first part is parallel to the ground, the first part A visual object indicating that a camera angle of the camera is substantially perpendicular to the ground may be set to be displayed on the second display area.
- the first designated angle range may be greater than or equal to 90° and less than 170°
- the second designated angle range may be greater than or equal to 170° and less than or equal to 180°.
- the UI may include at least one visual object for controlling the first camera.
- the preview image may be acquired based on at least a part of the image acquired by the first camera.
- a second camera disposed on a surface on which a third display area of the display corresponding to the third part is located, and a third part disposed on the third part a third sensor, wherein the third part is connected to the second part by a second hinge structure of the at least one hinge structure, and the at least one processor is configured to respond to a value obtained by the third sensor. to identify the posture of the third part based on, and to identify an angle formed by the second part and the third part based on the identified posture of the second part and the identified posture of the third part.
- the at least one processor recognizes the user's face of the electronic device included in the image acquired through the second camera, recognizes the user's face, and then acquires the user's face through the second camera
- the user's face may be tracked by comparing a face included in the image to be used with the recognized user's face, and the UI may be displayed on the display based on whether the user's face is being tracked.
- the at least one processor is configured such that the angle formed by the second part and the third part is within the first designated angle range, and the user's face is not being tracked through the second camera. , when the angle between the first part and the second part is within the second specified angle range, display the UI (user interface) on the first display area and the second display area to overlap the preview image. can be set.
- the at least one processor is configured to: based on the identified posture of the first part, a first edge of the first part opposite to the first hinge structure and furthest from the first hinge structure. It may be configured to identify a direction in which the edge faces, and display the UI on the display based on the identification of the direction in which the first edge faces.
- the at least one processor is configured such that the angle formed by the second part and the third part is within the first designated angle range, and the user's face is not being tracked through the second camera. , when the angle formed by the first part and the second part is within the first designated angle range, and the direction the first edge faces is the ground direction, the UI is set to be displayed on the first display area can
- the at least one processor is configured such that the angle formed by the second part and the third part is within the first designated angle range, and the user's face is not being tracked through the second camera. , when the angle formed by the first part and the second part is within the second specified angle range and the direction the first edge faces is opposite to the ground, displayed on the first display area and the second display area
- the preview image may be displayed only on the second display area and the UI may be set to be displayed on the second display area overlapping the preview image.
- the at least one processor is configured to display the display on which the UI is displayed when the second part and the third part are expanded while the preview image and the UI are displayed on the second display area
- a visual object indicating that the area is changed may be set to be displayed on the second display area.
- the at least one processor may be configured such that an angle formed by the second part and the third part is within the second specified angle range, and an angle formed by the first part and the second part is within the specified angle range.
- the preview image being displayed in the first display area and the second display area is displayed in the first display area, the second display area, and the third display area, and the UI is overlapped with the preview image to be displayed on the first display area, the second display area, and the third display area.
- the at least one processor is configured to: based on the identified posture of the first part, a first edge of the first part opposite to the first hinge structure and furthest from the first hinge structure. identify a direction in which an edge faces, and an angle formed by the second part and the third part is within the second specified angle range, and an angle formed by the first part and the second part is within the first specified angle range, and When the first edge faces the ground, the preview image displayed on the second display area is changed to be displayed in the first display area and the second display area, and the UI is displayed in the third display area. It may be set to be displayed in the display area.
- the at least one processor is configured to: based on the identified posture of the first part, a first edge of the first part opposite to the first hinge structure and furthest from the first hinge structure. identify a direction in which an edge faces, and an angle formed by the second part and the third part is within the second specified angle range, and an angle formed by the first part and the second part is within the first specified angle range, and When the direction in which the first edge faces is opposite to the ground, the preview image displayed in the second display area is changed and displayed in the second display area and the third display area, and the UI is displayed in the preview. It may be set to be displayed on the second display area and the third display area by overlapping the image.
- the first sensor, the second sensor, and the third sensor may include at least one of a gyro sensor and an acceleration sensor.
- An electronic device includes a first part, a second part, a third part, a first hinge structure connecting the first part and the second part, and a second part connecting the second part and the third part
- a housing including a second hinge structure, at least one sensor disposed in the housing, a flexible display disposed in a space formed by the housing, and a first camera disposed on a surface opposite to the flexible display in the first part ,
- a second camera disposed on a surface on which the flexible display is disposed in the third part and at least one processor electrically connected to the at least one sensor, the display, the first camera, and the second camera,
- the at least one processor executes a camera application associated with the first camera, and an angle between the second part and the third part is a first designated angle range based on a value obtained by the at least one sensor.
- recognizing the face of the user of the electronic device through the second camera, and comparing the recognized face with a face included in an image obtained through the second camera after the recognition The user's face is tracked, and a preview image obtained by the first camera is displayed on the area of the display corresponding to the third part based on the identification and the tracking, and a user interface (UI (user interface) of the camera application is displayed. ) may be set to be displayed on the area of the display as overlapping with the preview image.
- UI user interface
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Casings For Electric Apparatus (AREA)
Abstract
본 개시에 따른 전자 장치에 있어서, 상기 전자 장치는, 복수 개의 파트들 및 복수 개의 파트들을 연결하는 적어도 하나의 힌지 구조를 포함하는 하우징, 적어도 하나의 힌지 구조 중 제1 힌지 구조는 복수 개의 파트들 중 제1 파트 및 제2 파트를 연결하도록 제1 파트 및 제2 파트 사이에 배치되고, 제1 파트에 배치되는 제1 센서, 제2 파트에 배치되는 제2 센서, 하우징에 의해 형성되는 공간에 배치되고, 각각의 복수 개의 파트들이 이루는 각도에 따라 구부러질 수 있는 디스플레이, 상기 제1 파트에서 디스플레이에 대향하는 면에 배치되는 제1 카메라 및 제1 센서, 제2 센서, 디스플레이 및 제1 카메라와 전기적으로 연결된 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 제1 카메라와 연관된 카메라 어플리케이션을 실행하고, 제1 센서에 의해 획득된 값에 기반하여 제1 파트의 자세를 식별하고, 제2 센서에 의해 획득된 값에 기반하여 제2 파트의 자세를 식별하고, 식별된 제1 파트의 자세 및 식별된 제2 파트의 자세에 기반하여 제1 파트 및 제2 파트가 이루는 각도를 식별하고, 각도가 제1 지정된 범위 이내인 경우, 디스플레이의 표시 영역 중 제2 파트에 대응되는 제2 표시 영역에 제1 카메라에 의해 획득된 프리뷰 이미지를 표시하고, 각도가 제2 지정된 범위 이내인 경우, 디스플레이의 표시 영역 중 제1 파트에 대응되는 제1 표시 영역 및 제2 표시 영역에 프리뷰 이미지를 표시하고, 카메라 어플리케이션의 UI(user interface)를 디스플레이를 통해 표시하도록 설정될 수 있다.
Description
본 개시의 다양한 실시 예들은 카메라를 포함하는 폴더블 전자 장치에 관한 것이다.
최근, 소셜 미디어의 발전에 따라 모바일 전자 장치를 이용한 고품질의 사진 또는 동영상 촬영에 대한 소비자들의 요구가 증가하고 있다.
이러한 소비자들의 요구에 부응하여, 모바일 전자 장치는 다양한 기능과 높은 화질(화소)을 지원하는 카메라를 탑재하는 것이 시장의 핵심적인 트렌드가 되고 있다.
한편, 최근 출시되기 시작한 폴더블 전자 장치는 일반적으로 높은 가격의 제품으로 출시되고 있어서, 폴더블 전자 장치에 탑재되는 카메라 역시 고성능/고화질의 카메라가 채택되고 있다.
일반적인 바(bar) 타입의 전자 장치는 카메라가 디스플레이에 대향하도록 배치되기 때문에, 카메라를 이용하는 사용자는 다양한 각도에서 사진 및 동영상을 촬영하는 것이 어려울 수 있다. 그 이유는 카메라가 위에서 아래로 내려다보는 부감 촬영(low-angle shot) 또는 아래에서 위로 올려다보는 앙각 촬영(high-angle shot)의 경우, 전자 장치의 높이에 따라 사용자에게 디스플레이가 보이지 않기 때문에 사용자는 프리뷰 이미지를 확인하기 어렵고, 디스플레이를 통해 카메라를 조작하는 것 또한 어렵기 때문이다.
일 실시 예에 따른 전자 장치는, 복수 개의 파트들 및 상기 복수 개의 파트들을 연결하는 적어도 하나의 힌지 구조를 포함하는 하우징, 상기 적어도 하나의 힌지 구조 중 제1 힌지 구조는 상기 복수 개의 파트들 중 제1 파트 및 제2 파트를 연결하도록 상기 제1 파트 및 상기 제2 파트 사이에 배치됨, 상기 제1 파트에 배치되는 제1 센서, 상기 제2 파트에 배치되는 제2 센서, 상기 하우징에 의해 형성되는 공간에 배치되고, 각각의 상기 복수 개의 파트들이 이루는 각도에 따라 구부러질 수 있는 디스플레이, 상기 제1 파트에서 상기 디스플레이에 대향하는 면에 배치되는 제1 카메라 및 상기 제1 센서, 상기 제2 센서, 상기 디스플레이 및 상기 제1 카메라와 전기적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제1 카메라와 연관된 카메라 어플리케이션을 실행하고, 상기 제1 센서에 의해 획득된 값에 기반하여 상기 제1 파트의 자세를 식별하고, 상기 제2 센서에 의해 획득된 값에 기반하여 상기 제2 파트의 자세를 식별하고, 상기 식별된 제1 파트의 자세 및 상기 식별된 제2 파트의 자세에 기반하여 상기 제1 파트 및 상기 제2 파트가 이루는 각도를 식별하고, 상기 각도가 제1 지정된 범위 이내인 경우, 상기 디스플레이의 표시 영역 중 상기 제2 파트에 대응되는 제2 표시 영역에 상기 제1 카메라에 의해 획득된 프리뷰 이미지를 표시하고, 상기 각도가 제2 지정된 범위 이내인 경우, 상기 디스플레이의 표시 영역 중 상기 제1 파트에 대응되는 제1 표시 영역 및 상기 제2 표시 영역에 상기 프리뷰 이미지를 표시하고, 상기 카메라 어플리케이션의 UI(user interface)를 상기 디스플레이를 통해 표시하도록 설정될 수 있다.
일 실시 예에 따른 전자 장치는 제1 파트, 제2 파트, 제3 파트, 상기 제1 파트와 상기 제2 파트를 연결하는 제1 힌지 구조, 및 상기 제2 파트와 상기 제3 파트를 연결하는 제2 힌지 구조를 포함하는 하우징, 상기 하우징 내에 배치되는 적어도 하나의 센서, 상기 하우징에 의해 형성되는 공간에 배치되는 플렉서블 디스플레이, 상기 제1 파트에서 상기 플렉서블 디스플레이에 대향하는 면에 배치되는 제1 카메라, 상기 제3 파트에서 상기 플렉서블 디스플레이가 배치되는 면에 배치되는 제2 카메라 및 상기 적어도 하나의 센서, 상기 디스플레이, 상기 제1 카메라 및 상기 제2 카메라와 전기적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제1 카메라와 연관된 카메라 어플리케이션을 실행하고, 상기 적어도 하나의 센서에 의해 획득된 값에 기반하여 상기 제2 파트와 상기 제3 파트가 이루는 각도가 제1 지정된 각도 범위 내인지 식별하고, 상기 제2 카메라를 통해 상기 전자 장치의 사용자의 얼굴을 인식하고, 상기 인식 이후에 상기 제2 카메라를 통해 획득되는 이미지에 포함되는 얼굴과 상기 인식된 사용자의 얼굴을 비교함으로써, 상기 사용자의 얼굴을 추적하고, 상기 식별 및 상기 추적에 기반하여, 상기 제1 카메라에 의해 획득된 프리뷰 이미지를 상기 제3 파트에 대응되는 상기 디스플레이의 영역에 표시하고 상기 카메라 어플리케이션의 UI(user interface)를 상기 프리뷰 이미지와 중첩으로 상기 디스플레이의 상기 영역에 표시하도록 설정될 수 있다.
본 개시(disclosure)의 실시 예들에 따르면, 폴더블 전자 장치의 자세에 따라 프리뷰 이미지 및 카메라 어플리케이션의 UI(user interface)를 다양하게 표시함으로써 사용자가 원하는 각도에서 편리하게 촬영할 수 있는 전자 장치를 제공할 수 있다.
본 개시의 실시 예들에 따르면, 전자 장치가 사용자의 눈 높이보다 높은 위치에 있거나 눈 높이보다 낮은 위치에 있더라도, 전자 장치는 사용자를 향해 구부러질 수 있는 플렉서블 디스플레이의 표시 영역에 카메라의 프리뷰 이미지 및 카메라 어플리케이션에 관련된 UI를 표시할 수 있다.
본 개시의 실시 예들에 따르면, 전자 장치는 카메라가 향하는 방향이 지면과 수직인 상태에 있음을 나타내는 UI를 플렉서블 디스플레이에 표시할 수 있다.
도 1은 일 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른 전자 장치를 도시한다.
도 3은 일 실시 예에 따른 카메라 모듈과 관련된 어플리케이션(application)의 실행 화면을 도시한다.
도 4는 일 실시 예에 따른 전자 장치가 제1 모드로 동작하는 예를 도시한다.
도 5는 일 실시 예에 따른 전자 장치가 제1 모드로 동작하는 다른 예를 도시한다.
도 6은 일 실시 예에 따른 전자 장치가 제2 모드로 동작하는 예를 도시한다.
도 7은 일 실시 예에 따른 전자 장치가 제3 모드로 동작하는 예를 도시한다.
도 8은 일 실시 예에 따른 전자 장치가 제1 모드 내지 제3 모드로 동작하는 방법을 도시하는 흐름도이다.
도 9는 다른 실시 예에 따른 전자 장치를 도시한다.
도 10은 일 실시 예에 따른 전자 장치가 접혀진 상태를 도시한다.
도 11은 일 실시 예에 따른 전자 장치가 사용자의 얼굴을 인식하기 위한 방법을 도시한다.
도 12는 일 실시 예에 따른 전자 장치가 제1 모드로 동작하는 예를 도시한다.
도 13은 일 실시 예에 따른 전자 장치가 제2 모드로 동작하는 예를 도시한다.
도 14는 일 실시 예에 따른 전자 장치가 제3 모드로 동작하는 예를 도시한다.
도 15는 일 실시 예에 따른 전자 장치가 제4 모드로 동작하는 예를 도시한다.
도 16은 일 실시 예에 따른 전자 장치가 제5 모드로 동작하는 예를 도시한다.
도 17은 일 실시 예에 따른 전자 장치가 제6 모드로 동작하는 예를 도시한다.
도 18은 일 실시 예에 따른 전자 장치가 제7 모드로 동작하는 예를 도시한다.
도 19는 일 실시 예에 따른 전자 장치가 제1 모드 내지 제4 모드로 동작하는 방법을 도시하는 흐름도이다.
도 20은 일 실시 예에 따른 전자 장치가 제5 모드 내지 제7 모드로 동작하는 방법을 나타내는 흐름도이다.
도 21은 일 실시 예에 따른 전자 장치가 제2 카메라에 의해 획득된 프리뷰 이미지를 표시하는 예를 도시한다.
도 22는 일 실시 예에 따른 전자 장치가 제2 카메라에 의해 획득된 이미지를 보정하여 프리뷰 이미지를 표시하는 예를 도시한다.
도 1은, 일 실시 예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인 액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, Wi-Fi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈은 서브 스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 ’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는 일 실시 예에 따른 전자 장치(101)를 도시한다.
도 2를 참조하면, 일 실시 예에 따른 전자 장치(101)는 하우징(210), 플렉서블 디스플레이(160), 보조 디스플레이(164), 및 카메라 모듈(180)을 포함할 수 있다. 일 실시 예에 따른 전자 장치(101)는 도 2에서 도시되지 않은 도 1의 구성 요소들 중 적어도 일부를 포함할 수 있다.
이하의 실시 예에서, 완전히 펼쳐진 상태의 전자 장치(101)를 외부에서 보았을 때 플렉서블 디스플레이(160)가 보이는 면을 전자 장치(101)의 전면으로 정의하고, 상기 전면과 대향하는 면을 전자 장치(101)의 후면으로 정의한다.
일 실시 예에서, 하우징(210)은 제1 파트(211), 제2 파트(212) 및 연결부(213)를 포함할 수 있다.
일 실시 예에서, 제1 파트(211) 및 제2 파트(212)는 연결부(213)를 중심으로 대향하도록 배치될 수 있다. 예를 들면, 제1 파트(211)는 연결부(213)의 일 측에 접하여 배치되고, 제2 파트(212)는 상기 일 측과 대향하는 연결부(213)의 타 측에 접하여 배치될 수 있다. 일 실시 예에서, 제1 파트(211) 및 제2 파트(212)는 연결부(213)와 결합될 수 있고, 연결부(213)(또는 폴딩 축(A))를 중심으로 회전할 수 있다. 일 실시 예에서, 제1 파트(211)는 연결부(213)를 통해 제2 파트(212)에 연결될 수 있다.
일 실시 예에서, 연결부(213)는 제1 파트(211) 및 제2 파트(212) 사이에 배치될 수 있다. 일 실시 예에서, 연결부(213)는 제1 파트(211) 및 제2 파트(212)가 회전 동작이 가능하도록 다양한 메커니즘(mechanism)이 적용될 수 있다. 예를 들면, 연결부(213)는 복수의 기어들을 포함하는 힌지 구조를 포함할 수 있으나, 이에 제한되지 않는다. 예를 들어, 연결부(213)는 다관절 구조를 가질 수 있다.
다른 실시 예에서, 연결부(213)는 제1 파트(211) 및 제2 파트(212)와 일체로 형성될 수도 있다. 이 경우, 연결부(213)의 일부는 제1 파트(211) 또는 제2 파트(212)와 일체로 형성되고 나머지 일부는 제2 파트(212) 또는 제1 파트(211)와 일체로 형성될 수 있다. 다른 실시 예에서, 연결부(213)는 제1 파트(211) 또는 제2 파트(212)와 일체로 형성될 수도 있다. 다른 실시 예에서, 제1 파트(211), 제2 파트(212), 및 연결부(213) 모두가 일체로 형성될 수도 있다.
일 실시 예에 따른 하우징(210)은 금속 및/또는 폴리머를 포함할 수 있다.
일 실시 예에서, 플렉서블 디스플레이(160)는 하우징(210)에 의해 형성되는 공간에 배치되어 전자 장치(101)의 외부에서 보일 수 있다. 예를 들면, 플렉서블 디스플레이(160)의 일부는 상기 하우징(210)에 의해 형성되는 공간에 수용될 수 있고, 나머지 일부는 외부로 노출될 수 있다.
일 실시 예에서, 플렉서블 디스플레이(160)는 하우징(210)의 접이 동작에 따라 구부러질 수 있다. 예를 들면, 플렉서블 디스플레이(160)는 제1 파트(211) 및 제2 파트(212)가 이루는 각도에 대응하는 각도로 구부러질 수 있다.
일 실시 예에서, 플렉서블 디스플레이(160)는 전자 장치(101)의 전면의 적어도 일부를 형성할 수 있다. 예를 들면, 전자 장치(160)의 전면의 대부분은 플렉서블 디스플레이(160)에 의해 형성되고, 나머지 일부는 플렉서블 디스플레이(160)를 둘러싸는 하우징(210)에 의해 형성될 수 있다. 다른 예를 들면, 전자 장치(160)의 전면의 전부가 플렉서블 디스플레이(160)에 의해 형성될 수 있다.
일 실시 예에서, 플렉서블 디스플레이(160)는 제1 파트(211)와 대응되는 제1 표시 영역(161), 제2 파트(212)와 대응되는 제2 표시 영역(162), 및 연결부(213)와 대응되는 제3 표시 영역(163)을 포함할 수 있다. 상술한 바와 다르게 플렉서블 디스플레이(160)의 표시 영역의 구분은 다른 기준에 의해 정의될 수도 있다. 예를 들면, 폴딩 축(A)을 기준으로 제1 파트(211)를 향하여 연장되는 영역을 제1 표시 영역으로 정의하고, 폴딩 축(A)을 기준으로 제2 파트(212)를 향하여 연장되는 영역을 제2 표시 영역으로 정의할 수도 있다. 이 경우, 도 2에 도시된 제3 표시 영역(163)의 일부는 제1 표시 영역(161)에 포함될 수 있고, 제3 표시 영역(163)의 나머지 일부는 제2 표시 영역(162)에 포함될 수 있다. 이 경우, 폴딩 축(A)를 기준으로 정의한 제1 표시 영역(161) 및 제2 표시 영역(162)은 제3 표시 영역(163)에 의해 분리되지 않고 심리스(seamlessly)하게 연결될 수 있다.
이하에서는, 제3 표시 영역(163)을 제외하고 폴딩 축(A)을 중심으로 제1 파트(211)를 향하여 연장되는 제1 표시 영역(161)과 제2 파트(212)를 향하여 연장되는 제2 표시 영역(162)를 기준으로 설명한다.
일 실시 예에서, 보조 디스플레이(164)는 제1 파트(211)에 의해 형성된 공간에 적어도 일부가 수용되어 배치될 수 있다. 일 실시 예에서, 보조 디스플레이(164)는 제1 파트(211)의 후면을 통해 보일 수 있다. 다른 실시 예에 따른 전자 장치(101)는 보조 디스플레이(164)를 포함하지 않거나, 추가적인 보조 디스플레이를 다른 영역에 더 포함할 수 있다.
일 실시 예에서, 카메라 모듈(180)은 제1 파트(211)에서 플렉서블 디스플레이(160)에 대향하는 면에 배치될 수 있다. 예를 들면, 카메라 모듈(180)은 제1 파트(211)의 후면에 형성된 개구부에 적어도 일부가 삽입되어 배치될 수 있다. 일 실시 예에서, 카메라 모듈(180)은 보조 디스플레이(164) 및 연결부(213) 사이에 배치될 수 있다. 다른 실시 예에서, 전자 장치(101)가 보조 디스플레이(164)를 포함하지 않는 경우 카메라 모듈(180)은 연결부(213)와 이격되어 배치될 수 있다.
일 실시 예에서, 카메라 모듈(180)은 상기 개구부를 통해 이미지를 획득할 수 있다.
일 실시 예에서, 제1 파트(211)와 제2 파트(212)는 하우징(210)의 접이 동작에 따라 각도(200)를 이룰 수 있다. 플렉서블 디스플레이(160)가 구부러지는 각도는 하우징(210)의 제1 파트(211) 및 제2 파트(212)가 이루는 각도에 대응되므로, 플렉서블 디스플레이(160)의 제1 표시 영역(161) 및 제2 표시 영역(162) 또한 하우징(210)의 접이 동작에 따라 각도(200)를 이룰 수 있다.
일 실시 예에서, 전자 장치(101)가 접히지 않은 상태(또는 펼쳐진 상태)인 경우, 제1 파트(211)와 제2 파트(212)가 이루는 각도(200)는 약 180°일 수 있다. 이 경우, 플렉서블 디스플레이(160)의 제1 표시 영역(161) 및 제2 표시 영역(162)은 실질적으로 하나의(one) 평면을 형성할 수 있다.
일 실시 예에서, 전자 장치(101)가 접힌 상태인 경우, 제1 파트(211)와 제2 파트(212)가 이루는 각도(200)는 0°이상 180°미만일 수 있다. 전자 장치(101)가 접힘에 따라 제1 파트(211)와 제2 파트(212)는 서로 중첩될 수 있다. 일 실시 예에서 전자 장치(101)가 완전히 접힌 상태인 경우, 제1 표시 영역(161)의 적어도 일부는 제2 표시 영역(162)에 접하거나 근접할 수 있다.
일 실시 예에서, 전자 장치(101)의 프로세서(120)는 하우징(210)이 이루고 있는 각도(200)를 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)을 이용하여, 제1 파트(211) 및 제2 파트(212)가 이루는 각도를 식별할 수 있다.
일 실시 예에서, 프로세서(120)는 센서 모듈(176)을 이용하여 제1 파트(211) 및/또는 제2 파트(212)가 향하는 방향을 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)을 이용하여 제1 파트(211) 및/또는 제2 파트(212)가 향하는 방향이 중력 방향인지 또는 중력 반대 방향인지 여부를 식별할 수 있다. 프로세서(120)는 센서 모듈(176)를 이용하여 제1 파트(211) 및/또는 제2 파트(212)가 지면을 향하는 지 여부를 식별할 수 있다. 상기 제1 파트(211)가 향하는 방향은 연결부(213)의 반대편에 위치하는 제1 파트(211)의 측면(214)이 향하는 방향(예: ① 방향)일 수 있다. 상기 제2 파트(212)가 향하는 방향은 연결부(213)의 반대편에 위치하는 제2 파트(212)의 측면(215)이 향하는 방향(예: ② 방향)일 수 있다.
이하에서, 프로세서(120)가 센서 모듈(176)을 이용하여 제1 파트(211) 및 제2 파트(212)의 자세를 검출하고, 상기 검출된 자세에 기반하여 제1 파트(211)와 제2 파트(212)가 이루는 각도 및 제1 파트(211)와 제2 파트(212)가 각각 향하는 방향을 식별하는 예를 설명한다.
일 실시 예에서, 센서 모듈(176)은 복수 개의 센서를 포함할 수 있다. 예를 들면, 제1 파트(211)에 배치되는 제1 센서 및 제2 파트(212)에 배치되는 제2 센서를 포함할 수 있다.
상기 제1 센서는 가속도 센서 및 지자기 센서를 포함할 수 있다. 제1 센서가 가속도 센서 및 지자기 센서를 모두 포함하는 경우, 제1 센서는 위치 센서(position sensor)를 더 포함할 수 있다.
일 실시 예에서, 제1 센서의 가속도 센서는 제1 파트(211)의 x 축, y 축, 및 z 축의 가속도를 각각 검출할 수 있다. 일 실시 예에서, 제1 센서의 지자기 센서는, 제1 파트(211)의 x축, y축, 및 z축의 지자기장의 강도를 각각 검출할 수 있다. 일 실시 예에서, 제1 센서의 위치 센서는 가속도 센서 및 지자기 센서에 의해 획득된 값에 기반하여, 제1 파트(211)가 x 축, y축, 및 z축에 대하여 회전된 각도를 계산할 수 있다.
제1 파트(211)가 x 축에 대하여 회전된 각도는 예를 들면, 제1 파트(211)의 경사각일 수 있다. 제1 파트(211)의 경사각은 예를 들면, 제1 파트(211)의 제1 표시 영역(161)과 평행한 면과 지면과 평행한 면이 이루는 각도일 수 있다. 만약, 제1 파트(211)가 지면과 평행하게 놓인 상태에서 측면(214)이 지면과 가까워지도록 회전되는 경우 경사각은 양수일 수 있고, 측면(214)이 지면과 멀어지도록 회전되는 경우 경사각은 음수일 수 있다. 일 실시 예에서, 프로세서(120)는 상기 경사각이 양수인 경우 제1 파트(211)가 중력 방향을 향하는 것으로 판단하고, 상기 경사각이 음수인 경우 제1 파트(211)가 중력 반대 방향을 향하는 것으로 판단할 수 있다. 프로세서(120)는 상기 경사각이 양수인 경우 제1 파트(211)가 지면을 향하는 것으로 판단하고, 상기 경사각이 음수인 경우 제1 파트(211)가 지면을 향하지 않는 것으로 판단할 수 있다.
제1 파트(211)가 y 축에 대하여 회전된 각도는 예를 들면, 제1 파트(211)의 롤(roll) 각도일 수 있다. 제1 파트(211)의 롤 각도는 예를 들면, 제1 파트(211)와 직각인 평면과 지면과 직각인 평면 사이의 각도일 수 있다. 구체적인 예를 들면, 사용자가 측면(214)을 가장 멀리 둔 상태에서 제1 파트(211)를 쥐고, 제1 파트(211)를 왼쪽으로 기울이면 롤 각도는 양수일 수 있고, 제1 파트(211)를 오른쪽으로 기울이면 롤 각도는 음수일 수 있다.
제1 파트(211)가 z 축에 대하여 회전된 각도는 예를 들면, 제1 파트(211)의 방위각일 수 있다. 제1 파트(211)의 방위각은 제1 파트(211)의 측면(214)이 향하는 방향과 자북(magnetic north) 사이의 각도일 수 있다. 만약, 제1 파트(211)의 측면(214)이 자북을 향하는 경우 방위각은 0°일 수 있다.
상술한 제1 센서를 이용하여 제1 파트(211)의 방향을 식별하는 원리는 제2 파트(212)에도 동일하게 적용될 수 있다. 제2 파트(212)는 제1 센서와 상응하는 제2 센서를 포함할 수 있다.
다른 실시 예에서, 지자기 센서는 자이로 센서로 대체될 수 있다.
상술한 가속도 센서, 지자기 센서 및 자이로 센서는 하드웨어(hardware)로 구현될 수 있으며, 위치 센서는 하드웨어 또는 소프트웨어(software)로 구현될 수 있다.
다른 실시 예에서, 위치 센서는 프로세서(12)에 포함될 수도 있다.
일 실시 예에서, 프로세서(120)는 센서 모듈(176)을 이용하여 식별한 제1 파트(211)의 자세 및 제2 파트(212)의 자세에 기반하여 제1 파트(211)와 제2 파트(212)가 이루는 각도를 식별할 수 있다. 다만, 프로세서(120)가 제1 파트(211) 및 제2 파트(212)의 자세를 검출하는 방법 및/또는 제1 파트(211) 및 제2 파트(212)가 이루는 각도를 식별하는 방법은 상술한 예에 제한되지 않으며, 당해 기술 분야에서 사용되는 다양한 방법이 적용될 수 있다. 프로세서(120)가 제1 파트(211) 및 제2 파트(212)의 자세를 식별하는 방법에 따라 센서 모듈(176)의 구성 또한 달라질 수 있다.
일 실시 예에서, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값에 기반하여 전자 장치(101)의 자세, 예를 들면 제1 파트(211)와 제2 파트(212)의 상대적인 위치를 판단할 수 있다. 일 실시 예에서, 프로세서(120)는 제1 파트(211)가 제2 파트(212)보다 상대적으로 위에 또는 아래에 위치하는지 여부를 판단할 수 있다. 일 실시 예에서, 제1 파트(211)가 제2 파트(212)보다 상대적으로 아래에 위치하는 경우는, 제1 파트(211)가 제2 파트(212)보다 지면에 더 가까운 경우일 수 있다. 일 실시 예에서, 제1 파트(211)가 제2 파트(212)보다 상대적으로 아래에 위치하는 경우는, 제1 파트(211)의 측면(214)이 제2 파트(212)의 측면(215)보다 지면에 더 가까운 경우일 수 있다.
일 실시 예에서, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값에 기반하여, 제1 파트(211) 및 제2 파트(212)가 지면(ground)로부터 떨어진 상대적인 거리를 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)을 이용하여 제1 파트(211)가 제2 파트(212) 보다 지면으로부터 더 가까이 위치하고 있음 또는 더 멀리 위치하고 있음을 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)을 이용하여, 제1 파트(211)의 측면(214)이 제2 파트(212)의 측면(215)보다 지면으로부터 더 가까이 위치하고 있는 지 여부를 판단할 수 있다.
일 실시 예에서, 제1 파트(211)의 측면(214)은 연결부(213)의 반대편에 위치할 수 있다. 예를 들면, 제1 파트(211)의 측면(214)은 제1 파트(211)의 가장자리 중 연결부(213)로부터 가장 먼 가장자리일 수 있다.
일 실시 예에서, 제2 파트(212)의 측면(215)은 연결부(213)의 반대편에 위치할 수 있다. 예를 들면, 제2 파트(212)의 측면(215)은 제2 파트(212)의 가장자리 중 연결부(213)로부터 가장 먼 가장자리일 수 있다.
도 3은 일 실시 예에 따른 카메라 모듈(180)과 관련된 어플리케이션(application)의 실행 화면을 도시한다.
도 3을 참조하면, 일 실시 예에 따른 카메라 모듈(180)과 관련된 어플리케이션의 실행 화면은 프리뷰(preview) 화면(301), 제어(control) 화면(302), 및 결합 화면(combined screen)(303)을 포함할 수 있다.
일 실시 예에서, 전자 장치(101)(또는 프로세서(120))는 프리뷰 화면(301) 및 제어 화면(302)을 플렉서블 디스플레이(160)에 표시하거나, 상기 프리뷰 화면(301) 및 상기 제어 화면(302)이 중첩된 결합 화면(303)을 플렉서블 디스플레이(160)에 표시할 수 있다.
일 실시 예에서, 프리뷰 화면(301)은 카메라 모듈(180)의 프리뷰 이미지를 포함할 수 있다. 전자 장치(101)(또는 프로세서(120))는 카메라 모듈(180)에 의해 획득된 이미지의 적어도 일부에 기반하여 프리뷰 이미지를 획득할 수 있고, 상기 획득된 프리뷰 이미지를 플렉서블 디스플레이(160)를 통해 표시할 수 있다.
일 실시 예에서, 제어 화면(302)은 카메라 모듈(180)을 제어하기 위한 UI(user interface)를 포함할 수 있다. 상기 UI는 카메라 모듈(180)의 제어 기능들과 대응되는 시각적 객체들을 포함할 수 있다. 예를 들면, 상기 시각적 객체들은 카메라 모듈(180)의 제어 기능 중 셔터(shutter), 플래시(flash) 설정, 감도 설정, 초점 설정, 화이트 밸런스(white balance) 설정, 타이머 설정, 노출 설정, 접사 촬영 설정, 설정 메뉴 진입 및 갤러리 진입 중 적어도 하나와 대응될 수 있으나, 상술한 예들에 의해 제한되지 않는다.
일 실시 예에서, 전자 장치(101)의 사용자는 플렉서블 디스플레이(160)에 표시되는 시각적 객체들을 터치하여 상기 터치된 시각적 객체와 대응되는 카메라 모듈(180)의 제어 기능을 실행할 수 있다.
일 실시 예에서, 결합 화면(303)은 프리뷰 화면(301) 및 제어 화면(302)을 포함할 수 있다. 전자 장치(101)는 프리뷰 화면(301)과 제어 화면(302)이 중첩된 결합 화면(303)을 플렉서블 디스플레이(160)를 통해 표시할 수 있다.
도 4는 일 실시 예에 따른 전자 장치(101)가 제1 모드로 동작하는 예를 도시한다.
도 4를 참조하면, 전자 장치(101)는 제1 모드로 동작할 수 있다. 일 실시 예에서, 전자 장치(101)의 제1 모드는 카메라 모듈(180)과 관련된 어플리케이션을 제1 모드로 제어하는 것을 의미할 수 있다.
일 실시 예에서, 프로세서(120)는 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 지정된 제1 지정된 각도 범위 내이고 전자 장치(101)의 자세가 지정된 조건을 만족하는지 여부를 판단하고, 판단 결과에 따라 상기 전자 장치(101)가 제1 모드로 동작하도록 할 수 있다.
일 실시 예에서, 상기 제1 지정된 각도 범위는 0°이상 180°미만의 각도 범위에 포함될 수 있고, 90°를 포함할 수 있다.
일 실시 예에서, 상기 지정된 조건은 제1 파트(211)가 중력 방향을 향하고, 제2 파트(212)가 중력 반대 방향을 향하는 조건일 수 있다.
일 실시 예에서, 상기 지정된 조건은 제1 파트(211)가 지면을 향하고 제2 파트(212)가 지면을 향하지 않는 조건일 수 있다.
일 실시 예에서, 상기 지정된 조건은 제1 파트(211)가 제2 파트(212)보다 지면에 더 가까이 위치하는 조건일 수 있다.
일 실시 예에서, 상기 지정된 조건은 전자 장치(101)의 자세가 제1 파트(211)가 제2 파트(212)보다 상대적으로 아래에 위치하는 조건일 수 있다.
일 실시 예에서, 프로세서(120)가 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 제1 지정된 각도 범위 내이고 전자 장치(101)의 자세가 지정된 조건을 만족한다고 판단한 경우, 전자 장치(101)는 제1 모드로 동작할 수 있다.
일 실시 예에서, 제1 모드로 동작하는 전자 장치(101)의 프로세서(120)는 플렉서블 디스플레이(160)의 제1 표시 영역(161)에 카메라 모듈(180)과 연관된 어플리케이션의 제어 화면(302)을 표시하고, 제2 표시 영역(162)에 카메라 모듈(180)에 의해 획득되는 프리뷰 이미지를 포함하는 프리뷰 화면(301)을 표시할 수 있다.
전자 장치(101)의 사용자는 제1 모드로 동작하는 전자 장치(101) 및 카메라 모듈(180)을 이용하여 부감 각도(high-angle)에서 촬영을 할 수 있다. 전자 장치(101)가 사용자의 눈 높이 보다 높이 있더라도, 제2 표시 영역(162)에 표시되는 프리뷰 화면(301) 및 제1 표시 영역(161)에 표시되는 제어 화면(302)을 이용하여 편리하게 부감 촬영(high-angle shot)을 할 수 있다.
전자 장치(101)의 사용자는 제1 모드로 동작하는 전자 장치(101) 및 카메라 모듈(180)을 이용하여 위에서 아래로 내려다보는 각도로 촬영할 수 있다. 전자 장치(101)가 사용자의 눈 높이 보다 높이 있더라도, 제2 표시 영역(162)에 표시되는 프리뷰 화면(301) 및 제1 표시 영역(161)에 표시되는 제어 화면(302)을 이용하여 편리하게 위에서 아래로 내려다보는 각도에서 촬영할 수 있다.
도 5는 일 실시 예에 따른 전자 장치(101)가 제1 모드로 동작하는 다른 예를 도시한다.
도 5를 참조하면, 전자 장치(101)는 제1 모드로 동작할 수 있다.
일 실시 예에서, 전자 장치(101)가 제1 모드로 동작하는 동안, 프로세서(120)는 센서 모듈(176)을 이용하여 제1 파트(211)가 향하는 방향(예: ① 방향)을 식별할 수 있다. 일 실시 예에서, 프로세서(120)는 제1 파트(211)가 향하는 방향이 중력 방향과 실질적으로 수직인지(또는 지면과 실질적으로 평행한지) 판단할 수 있다. 제1 파트(211)가 향하는 방향이 중력 방향과 실질적으로 수직인 경우, 카메라 모듈(180)이 향하는 방향은 중력 방향과 실질적으로 동일하거나 지면과 수직일 수 있다. 일 실시 예에서, 프로세서(120)는 센서 모듈(176)을 이용하여 제1 파트(211)가 이루는 평면(예: 제1 파트(211)가 ①번 방향으로 연장되는 평면)이 지면과 평행하는 지 여부를 판단할 수 있다.
일 실시 예에서, 제1 파트(211)가 향하는 방향이 중력 방향과 실질적으로 수직인 경우(또는 제1 파트(211)가 이루는 평면이 지면과 평행한 경우), 프로세서(120)는 카메라 모듈(180)의 카메라 앵글(또는 촬영 각도)이 지면과 실질적으로 수직임을 지시하는 UI(user interface)(501)를 제2 표시 영역(162)에 프리뷰 화면(301)과 중첩으로 표시할 수 있다. 일 실시 예에서 프로세서(120)는 제1 표시 영역(161)에 제어 화면(302)을 표시할 수 있다. 상기 UI(501)는 카메라 모듈(180)이 지면 방향과 실질적으로 수직임을 지시하는 시각적 객체를 포함할 수 있다.
전자 장치(101)의 사용자는, 상술한 제1 모드의 다른 예에 따라 동작하는 전자 장치(101) 및 카메라 모듈(180)을 이용하여 직부감 각도(overhead camera angle)의 카메라 앵글에서 촬영을 할 수 있다.
상기 직부감 각도(overhead camera angle)의 촬영은 카메라 모듈(180)이 지면을 정면으로 바라보는 방향에서 촬영하는 것일 수 있다. 상기 직부감 각도(overhead camera angle)의 촬영은 카메라 모듈(180)이 향하는 방향이 지면에 실질적으로 수직인 상태에서 촬영하는 것일 수 있다. 상기 직부감 각도(overhead camera angle)의 촬영은 위에서 아래로 지면에 수직한 각도로 촬영하는 것일 수 있다. 전자 장치(101)의 사용자는, 상술한 제1 모드의 다른 예에 다라 동작하는 전자 장치(101) 및 카메라 모듈(180)을 통해, 위에서 아래로 수직으로 내려보는 각도에서 촬영할 수 있다. 전자 장치(101)의 사용자는 카메라 앵글이 지면에 수직임을 지시하는 시각적 객체를 통해 편리하고 정확하게 위에서 아래로 수직으로 내려보는 각도로 촬영할 수 있다.
도 6은 일 실시 예에 따른 전자 장치(101)가 제2 모드로 동작하는 예를 도시한다.
도 6을 참조하면, 일 실시 예에 따른 전자 장치(101)는 제2 모드로 동작할 수 있다. 일 실시 예에서, 전자 장치(101)의 제2 모드는 카메라 모듈(180)과 관련된 어플리케이션을 제2 모드로 제어하는 것을 의미할 수 있다.
일 실시 예에서, 프로세서(120)는 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 제1 지정된 각도 범위 내에 있고 전자 장치(101)의 자세가 지정된 조건을 만족하는지 여부를 판단할 수 있다. 프로세서(120)는 상기 판단 결과에 따라 전자 장치(101)를 제2 모드로 동작하도록 할 수 있다.
일 실시 예에서, 전자 장치(101)의 자세가 지정된 조건을 만족하지 않는 경우는, 제1 파트(211)가 중력 반대 방향(또는 지면 반대 방향)을 향하고 제2 파트(212)가 중력 방향(또는 지면 방향)을 향하는 경우일 수 있다.
일 실시 예에서, 전자 장치(101)의 자세가 지정된 조건을 만족하지 않는 경우는, 제2 파트(212)가 제1 파트(211)보다 지면에 더 가까이 위치한 경우일 수 있다.
일 실시 예에서, 전자 장치(101)의 자세가 지정된 조건을 만족하지 않는 경우는, 제2 파트(212)가 제1 파트(211)보다 상대적으로 아래에 위치하는 경우일 수 있다.
일 실시 예에서, 전자 장치(101)의 자세가 지정된 조건을 만족하지 않는 경우는, 제2 파트(212)의 측면(215)이 제1 파트(211)의 측면(214)보다 상대적으로 아래에 위치하는 경우일 수 있다.
일 실시 예에서, 프로세서(120)가 제1 파트(211) 및 제2 파트(212)가 이루는 제1 지정된 각도 범위 내에 있고 전자 장치(101)의 자세가 지정된 조건을 만족하지 않는다고 판단한 경우, 전자 장치(101)는 제2 모드로 동작할 수 있다.
일 실시 예에서, 제2 모드로 동작하는 전자 장치(101)의 프로세서(120)는 프리뷰 화면(301) 및 제어 화면(302)가 결합된 결합 화면(303)을 제2 표시 영역(162)에 표시할 수 있다. 일 실시 예에서, 프로세서(120)는 프리뷰 화면(301) 및 제어 화면(302)을 중첩하여 제2 표시 영역(162)에 표시할 수 있다.
일 실시 예에 따른 전자 장치(101)의 사용자는 제2 모드로 동작하는 전자 장치(101) 및 카메라 모듈(180)을 이용하여 앙각 각도(low-angle)에서 촬영할 수 있다. 일 실시 예에서, 전자 장치(101)가 사용자의 눈 높이 보다 아래에 있더라도 제2 표시 영역(162)에 표시되는 프리뷰 이미지 및 카메라 어플리케이션과 관련된 UI를 통해 편리하게 앙각 촬영(low-angle shot)을 할 수 있다.
일 실시 예에 따른 전자 장치(101)의 사용자는 제2 모드로 동작하는 전자 장치(101) 및 카메라 모듈(180)을 이용하여 아래에서 위로 올려보는 각도에서 촬영할 수 있다. 일 실시 예에서, 전자 장치(101)가 사용자의 눈 높이 보다 아래에 있더라도 제2 표시 영역(162)에 표시되는 프리뷰 이미지 및 카메라 어플리케이션과 관련된 UI를 통해 편리하게 아래에서 위로 올려다보는 각도로 촬영을 할 수 있다.
도 7은 일 실시 예에 따른 전자 장치(101)가 제3 모드로 동작하는 예를 도시한다.
도 7을 참조하면, 전자 장치(101)는 제3 모드로 동작할 수 있다. 일 실시 예에서, 전자 장치(101)의 제3 모드는 카메라 모듈(180)과 관련된 어플리케이션을 제3 모드로 제어하는 것을 의미할 수 있다.
일 실시 예에서, 프로세서(120)는 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 제2 지정된 각도 범위 내인지 여부를 식별하고, 상기 식별 결과에 따라 전자 장치(101)를 제3 모드로 동작하도록 할 수 있다.
일 실시 예에서, 제2 지정된 각도 범위는 90°초과 180°이하일 수 있다. 다만 제2 지정된 각도 범위는 180°를 포함할 수 있으며, 상기 제1 지정된 각도 범위와 중첩되지 않을 수 있다.
일 실시 예에서, 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 실질적으로 180°인 경우, 제2 지정된 각도 범위에 포함될 수 있다.
일 실시 예에서, 제3 모드로 동작하는 전자 장치(101)의 프로세서(120)는 제1 표시 영역(161) 및 제2 표시 영역(162)을 포함하는 플렉서블 디스플레이(160)의 표시 영역 전부에 프리뷰 화면(301)과 제어 화면(302)이 중첩된 결합 화면(303)을 표시할 수 있다.
도 8은 일 실시 예에 따른 전자 장치(101)가 제1 모드 내지 제3 모드로 동작하는 방법을 도시하는 흐름도이다.
도 8을 참조하면, 동작 801에서 전자 장치(101)는 카메라와 관련된 어플리케이션을 실행할 수 있다. 예를 들면, 프로세서(101)는 카메라 모듈(180)과 관련된 어플리케이션을 실행할 수 있다.
동작 803에서, 전자 장치(101)는 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 제1 지정된 각도 범위 내인지 또는 제2 지정된 각도 범위 내인지여부를 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값(또는 데이터)에 기반하여 제1 파트(211) 및 제2 파트(212)가 이루는 각도를 식별할 수 있고, 상기 식별에 기반한 각도가 상기 제1 지정된 각도 범위 내인지 또는 제2 지정된 각도 범위 내인지여부를 판단할 수 있다. 상기 제1 지정된 각도 범위는 0°이상 180°미만의 각도 범위에 포함될 수 있으나, 90°의 각도를 포함할 수 있다. 상기 제2 지정된 각도 범위는 90°초과 180°이하의 각도 범위에 포함될 수 있으나, 180°의 각도를 포함할 수 있다. 상기 제1 지정된 각도 범위와 상기 제2 지정된 각도 범위는 중첩되지 않을 수 있다. 전자 장치(101)는 상기 판단에 기반하여, 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 상기 제1 지정된 각도 범위 내인 경우 동작 805를 수행하고, 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 상기 제2 지정된 각도 범위 내인 경우 동작 811을 수행할 수 있다.
동작 805에서, 전자 장치(101)는 전자 장치(101)의 자세가 지정된 조건을 만족하는지 여부를 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값(또는 데이터)에 기반하여 전자 장치(101)의 자세가 지정된 조건을 만족하는 지 여부를 식별할 수 있다.
상기 지정된 조건은, 예를 들면 제1 파트(211)가 중력 방향(또는 지면 방향)을 향하고 제2 파트(212)가 중력 반대 방향(또는 지면 반대 방향)을 향하는 조건일 수 있다.
상기 지정된 조건은, 다른 예를 들면, 제1 파트(211)가 제2 파트(212) 보다 지면에 더 가까이 위치하는 조건일 수 있다.
상기 지정된 조건은, 다른 예를 들면, 제1 파트(211)의 측면(214)이 제2 파트(212)의 측면(215) 보다 지면에 더 가까이 위치하는 조건일 수 있다.
상기 지정된 조건은, 다른 예를 들면, 제1 파트(211)가 제2 파트(212) 보다 상대적으로 아래에 위치하는 조건일 수 있다.
상기 지정된 조건은, 다른 예를 들면, 제1 파트(211)의 측면(214)이 제2 파트(212)의 측면(215) 보다 상대적으로 아래에 위치하는 조건일 수 있다.
프로세서(120)가 전자 장치(101)의 자세가 지정된 조건을 만족함을 식별하는 경우 전자 장치(101)는 동작 807을 수행하고, 그렇지 않은 경우 동작 809를 수행할 수 있다.
동작 807에서, 전자 장치(101)는 제1 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 제1 지정된 각도 범위 내이고 전자 장치(101)의 자세가 지정된 조건을 만족하는 경우, 전자 장치(101)를 제1 모드로 동작하도록 할 수 있다. 일 실시 예에 따른 전자 장치(101)는 제1 모드에서 제1 표시 영역(161)에 카메라 모듈(180)과 관련된 어플리케이션의 제어 화면(302)을 표시하고 제2 표시 영역(162)에 카메라 모듈(180)에 의해 획득되는 프리뷰 화면(301)을 표시할 수 있다. 일 실시 예에서, 제1 모드로 동작하는 전자 장치(101)는 카메라 모듈(180)이 향하는 방향과 중력 방향이 일치하는 상태에 있는 경우, 상기 상태를 지시하는 UI(501)을 제2 표시 영역(162)에 표시할 수 있다.
동작 809에서, 전자 장치(101)는 제2 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 제1 지정된 각도 범위 내이고 전자 장치(101)의 자세가 지정된 조건을 만족하지 않는 경우, 전자 장치(101)를 제2 모드로 동작하도록 할 수 있다. 일 실시 예에서, 제2 모드로 동작하는 전자 장치(101)는 프리뷰 화면(301)과 제어 화면(302)가 중첩된 결합 화면(303)을 제2 표시 영역(162)에 표시할 수 있다.
동작 811에서, 전자 장치(101)는 제3 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제1 파트(211) 및 제2 파트(212)가 이루는 각도가 제2 지정된 각도 범위 내인 경우, 전자 장치(101)를 제3 모드로 동작하도록 할 수 있다. 일 실시 예에서, 제3 모드로 동작하는 전자 장치(101)는 제1 표시 영역(161) 및 제2 표시 영역(162)를 포함하는 플렉서블 디스플레이(160)의 표시 영역 전부에 결합 화면(303)을 확장하여 표시할 수 있다.
도 9는 다른 실시 예에 따른 전자 장치(901)를 도시한다.
도 9를 참조하면, 전자 장치(901)는 하우징(910), 플렉서블 디스플레이(960), 제1 카메라(981)(예: 도 2의 카메라 모듈(180)), 및 제2 카메라(982)(예: 도 2의 카메라 모듈(180))을 포함할 수 있다. 도 9에 도시하지 않았으나, 전자 장치(901)는 도 1의 전자 장치(101)의 구성 요소들 중 적어도 일부를 포함할 수 있다.
이하의 실시 예에서, 완전히 펼쳐진 상태의 전자 장치(901)를 외부에서 보았을 때 플렉서블 디스플레이(960)가 보이는 면을 전자 장치(901)의 전면으로 정의하고, 상기 전면과 대향하는 면을 전자 장치(901)의 후면으로 정의한다.
일 실시 예에서, 하우징(910)은 제1 파트(911), 제2 파트(912), 및 제3 파트(913)를 포함할 수 있다.
일 실시 예에서, 제1 파트(911)는 제2 파트(912)를 중심으로 회전이 가능하도록 제2 파트(912)에 결합될 수 있다. 일 실시 예에서, 제2 파트(912)는 제3 파트(913)를 중심으로 회동이 가능하도록 제3 파트(913)에 결합될 수 있다. 일 실시 예에서, 제3 파트(913)는 제2 파트(912)를 중심으로 회전이 가능하도록 제2 파트(912)에 연결될 수 있다.
일 실시 예에서, 하우징(910)은 금속 및/또는 폴리머를 포함할 수 있다.
일 실시 예에서, 플렉서블 디스플레이(960)는 하우징(910)의 제1 파트(911), 제2 파트(912), 및 제3 파트(913)에 걸쳐 배치될 수 있다. 플렉서블 디스플레이(960)는 하우징(910)에 의해 형성된 리세스(recess)에 적어도 일부가 수용되어 배치되고, 적어도 일부가 전자 장치(901)의 외부에서 보일 수 있다.
일 실시 예에서, 플렉서블 디스플레이(960)는 하우징(910)에 포함되는 복수개의 파트들의 회전 동작에 따라 휘어질 수 있다. 예를 들면, 플렉서블 디스플레이(960)는 제1 파트(911), 제2 파트(912), 및 제3 파트(913)가 이루는 각도에 대응되도록 휘어지거나 변형될 수 있다.
일 실시 예에서, 플렉서블 디스플레이(960)는 전자 장치(901)의 전면의 대부분을 형성할 수 있다. 상기 전면의 나머지는 하우징(910)에 의해 형성될 수 있다. 다른 실시 예에서, 플렉서블 디스플레이(960)는 전자 장치(901)의 전면의 전부를 형성할 수도 있다.
일 실시 예에서, 플렉서블 디스플레이(960)는 제1 파트(911)와 대응되는 제1 표시 영역(961), 제2 파트(912)와 대응되는 제2 표시 영역(962), 및 제3 파트(913)와 대응되는 제3 표시 영역(963)을 포함할 수 있다.
일 실시 예에서, 제1 카메라(981)는 제1 파트(911)의 후면에 배치될 수 있다. 예를 들면, 제1 카메라(981)는 제1 파트(911)의 후면에 형성되는 개구부에 적어도 일부가 삽입되어 배치될 수 있다. 상기 개구부는 제1 파트(911)에서 플렉서블 디스플레이(960)에 대향하는 면에 형성될 수 있다. 제1 카메라(981)는 상기 개구부를 통해 외부에서 보일 수 있고, 상기 개구부를 통해 획득되는 이미지에 대한 정보를 획득할 수 있다.
일 실시 예에서, 제2 카메라(982)는 제3 파트(913)의 전면에 배치될 수 있다. 예를 들면, 제2 카메라(982)는 제3 파트(913)의 전면에 형성되는 개구부에 적어도 일부가 수용되어 배치될 수 있다. 일 실시 예에서, 상기 개구부는 제3 표시 영역(963)의 안쪽에 형성될 수도 있고, 다른 실시 예에서 도 9에 도시된 것과 달리 제3 표시 영역(963) 바깥의 제3 파트(913)에 형성될 수도 있다. 일 실시 예에 따른 제2 카메라(982)는 개구부를 통해 이미지를 획득할 수 있다.
일 실시 예에서, 제1 파트(911) 및 제2 파트(912)가 접히는 방향은 제2 파트(912) 및 제3 파트(913)가 접히는 방향과 상이할 수 있다. 예를 들면, 제1 파트(911) 및 제2 파트(912)가 접힌 상태에서 제1 표시 영역(961) 및 제2 표시 영역(962)은 가려져 보이지 않을 수 있고, 제2 파트(912) 및 제3 파트(913)가 접힌 상태에서 제3 표시 영역(963)이 외부에서 보일 수 있다. 즉, 제1 파트(911) 및 제2 파트(912)는 전자 장치(901)의 전면이 서로 접하도록 하는 방향으로 접히고, 제2 파트(912) 및 제3 파트(913)는 전자 장치(901)의 후면이 서로 접하도록 하는 방향으로 접힐 수 있다.
도 10은 일 실시 예에 따른 전자 장치(901)가 접혀진 상태를 도시한다.
도 10을 참조하면, 일 실시 예에 따른 전자 장치(901)는 하우징(910)의 복수 개의 파트들을 연결하는 적어도 하나의 연결부를 포함할 수 있다. 예를 들면, 전자 장치(901)는 제1 파트(911)와 제2 파트(912)를 연결하는 제1 연결부(914) 및 제2 파트(912)와 제3 파트(913)를 연결하는 제2 연결부(915)를 포함할 수 있다.
일 실시 예에서, 제1 파트(911)는 제1 연결부(914)에 의해 제2 파트(912)에 연결될 수 있다. 제1 파트(911)는 제1 연결부(914)를 중심으로 회전할 수 있다.
일 실시 예에서, 제2 파트(912)는 제2 연결부(915)에 의해 제3 파트(913)에 연결될 수 있다. 제2 파트(912)는 제2 연결부(915)를 중심으로 회전할 수 있다.
일 실시 예에서, 제3 파트(913)는 제2 연결부(915)를 중심으로 회전할 수 있다.
일 실시 예에서, 제1 연결부(914) 및 제2 연결부(915)는 힌지 구조를 포함할 수 있다. 제1 연결부(914) 및 제2 연결부(915)의 메커니즘(mechanism)은 도 2에서 연결부(213)와 관련하여 제공된 설명 이 동일하게 적용될 수 있다.
일 실시 예에서, 전자 장치(901)의 프로세서(120)가 센서 모듈(176)을 이용하여 하우징(910)의 각도 및 제1 파트(911)의 방향을 식별하는 방법은 도 2에서 제공된 설명이 동일하게 적용될 수 있다.
예를 들면, 센서 모듈(176)은 제1 파트(911)에 배치된 제1 센서, 제2 파트(912)에 배치된 제2 센서 및 제3 파트(913)에 배치된 제3 센서를 포함할 수 있다. 프로세서(120)는 제1 파트(911), 제2 파트(912), 및 제3 파트(913)의 자세를 각각 검출할 수 있다. 프로세서(120)는 제1 센서에 의해 획득된 값에 기반하여 제1 파트(911)가 x축, y축, 및 z축에 대한 회전 각도를 각각 계산할 수 있다. 프로세서(120)는 제2 센서에 의해 획득된 값에 기반하여 제2 파트(912)가 x축, y축, 및 z축에 대한 회전 각도를 각각 계산할 수 있다. 프로세서(120)는 제3 센서에 의해 획득된 값에 기반하여 제3 파트(913)가 x축, y축, 및 z축에 대한 회전 각도를 각각 계산할 수 있다.
일 실시 예에서, 프로세서(120)는 제1 파트(911)의 상기 계산된 회전 각도에 기반하여 제1 파트(911)의 방향을 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)에 의해 획득된 데이터에 기반하여 제1 파트(911)가 향하는 방향이 지면 방향인지 여부를 식별할 수 있다. 상기 제1 파트(911)가 향하는 방향은 제1 파트(911)의 측면(916)이 향하는 방향(예: ① 방향)일 수 있다. 제1 파트(911)의 측면(916)은 제1 연결부(914)의 반대편에 위치할 수 있다. 제1 파트(911)의 측면(916)은 제1 파트(911)의 가장자리 중 제1 연결부(914)와 가장 먼 가장자리일 수 있다.
일 실시 예에서, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값에 기반하여 하우징(910)이 이루고 있는 각도를 식별할 수 있다. 예를 들면, 프로세서(120)는 상기 검출된 제1 파트(911)의 자세 및 상기 검출된 제2 파트(912)의 자세에 기반하여 제1 파트(911)와 제2 파트(912)가 이루는 각도를 계산할 수 있다. 프로세서(120)는 상기 검출된 제2 파트(912)의 자세 및 상기 검출된 제3 파트(913)의 자세에 기반하여, 제2 파트(912)와 제3 파트(913)가 이루는 각도를 계산할 수 있다.
도 11은 일 실시 예에 따른 전자 장치(901)가 사용자의 얼굴을 인식하기 위한 방법을 도시한다.
도 11을 참조하면, 전자 장치(901)는 제2 카메라(982)를 이용하여 전자 장치(901)의 사용자의 얼굴(1110)을 추적할 수 있다.
일 실시 예에서, 전자 장치(901)의 프로세서(120)는 제2 카메라(982)를 이용하여 사용자의 얼굴(1110)을 포함하는 이미지를 획득할 수 있다. 프로세서(120)는 상기 획득된 이미지에 포함된 사용자의 얼굴(1110)을 인식할 수 있다. 이 경우, 프로세서(120)는 사용자가 상기 인식된 얼굴(1110)의 추적을 유지할 지 여부를 선택하기 위한 UI를 플렉서블 디스플레이(960)에 표시할 수 있다. 상기 UI는 상기 인식된 얼굴(1110)의 이미지(1121), 상기 인식된 얼굴(1110)을 추적할 것을 선택하기 위한 객체(1122), 및 상기 인식된 얼굴(1110)을 추적하지 않을 것을 선택하기 위한 객체(1123)를 포함할 수 있다.
전자 장치(901)의 사용자가 객체(1122)를 선택하는 경우, 프로세서(120)는 인식된 얼굴(1121)과 상기 인식 이후에 제2 카메라(982)에 의해 획득되는 이미지에 포함되는 얼굴을 비교함으로써 사용자의 얼굴(1110)을 추적하는 것을 유지할 수 있다.
전자 장치(901)의 사용자가 객체(1123)를 선택하는 경우, 프로세서(120)는 사용자의 얼굴(1110)의 추적을 유지하지 않을 수 있다.
다른 실시 예에서, 프로세서(120)는 사용자의 선택 없이 제2 카메라(982)에 의해 획득되는 이미지에 포함된 사용자의 얼굴(1110)을 추적할 수도 있다. 예를 들면, 프로세서(120)는 미리 사용자에 의해 등록된 얼굴 이미지와 제2 카메라(982)에 의해 획득된 이미지에 포함되는 얼굴 이미지를 비교함으로써 사용자의 얼굴(1110)을 추적할 수도 있다.
도 12는 일 실시 예에 따른 전자 장치(901)가 제1 모드로 동작하는 예를 도시한다.
도 12를 참조하면, 전자 장치(901)는 제1 모드로 동작할 수 있다. 일 실시 예에서, 전자 장치(901)의 상기 제1 모드는 제1 카메라(981) 및/또는 제2 카메라(982)와 관련된 어플리케이션을 제1 모드로 제어하는 것을 의미할 수 있다.
일 실시 예에서, 프로세서(120)는 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고, 전자 장치(901)의 사용자의 얼굴을 추적 중인 지 여부를 판단할 수 있다. 일 실시 예에 따른 프로세서(120)는 상기 식별에 기반하여, 전자 장치(901)를 제1 모드로 동작하도록 할 수 있다.
일 실시 예에서, 제1 지정된 각도 범위는 0°이상 180°미만의 각도 범위에 포함될 수 있으나, 상기 제1 지정된 각도 범위는 90°를 포함할 수 있다.
일 실시 예에서, 프로세서(120)가 제2 파트(911) 및 제3 파트(912)가 이루는 각도가 상기 제1 지정된 각도 범위 내이고 전자 장치(901)의 사용자의 얼굴을 제2 카메라(982)를 이용하여 추적 중임을 식별한 경우, 전자 장치(901)는 제1 모드로 동작할 수 있다.
일 실시 예에서, 제1 모드로 동작하는 프로세서(120)는 제3 표시 영역(963)에 프리뷰 화면(301)과 제어 화면(302)이 중첩된 결합 화면(303)을 표시할 수 있다.
전자 장치(901)의 사용자는 제1 모드로 동작하는 전자 장치(901) 및 제1 카메라(981)를 이용하여 다양한 각도에서 촬영할 수 있다. 예를 들면, 사용자는 도 12에 도시된 것과 같이, 전자 장치(901)의 자세에 따라 부감 촬영(high-angle shot), 앙각 촬영(low-angle shot), 또는 셀프 촬영(selfie shot)을 할 수 있다.
다른 실시 예에서, 제2 파트(911) 및 제3 파트(912)가 이루는 각도와 관계없이, 프로세서(120)가 전자 장치(901)의 사용자의 얼굴을 제2 카메라(982)를 이용하여 추적 중임을 식별한 경우, 전자 장치(901)는 제1 모드로 동작할 수도 있다.
도 12를 참조하는 설명 및 이하에서, 사용자의 얼굴을 추적 중인 지 여부를 전자 장치(901)의 모드를 판단하는 조건으로 포함하는 경우, 전자 장치(901)는 상기 모드로 동작을 시작한 이후에 사용자의 얼굴의 추적이 유지되지 않는 경우에도, 현재 동작 중인 모드를 유지할 수 있다.
도 12를 참조하는 설명 및 이하에서, 사용자의 얼굴을 추적 중인 지 여부를 전자 장치(901)의 모드를 판단하는 조건으로 포함하는 경우, 전자 장치(901)는 상기 모드로 동작을 시작한 이후에 사용자의 얼굴의 추적이 유지되지 않더라도 하우징(910)의 각도 변화(예: 도 10의 각도(1001) 또는 각도(1003))가 검출되지 않는 경우, 현재 동작 중인 모드를 유지할 수 있다.
도 13은 일 실시 예에 따른 전자 장치(901)가 제2 모드로 동작하는 예를 도시한다.
도 13을 참조하면, 전자 장치(901)는 제2 모드로 동작할 수 있다. 일 실시 예에서, 전자 장치(901)의 제2 모드는 제1 카메라(981) 및/또는 제2 카메라(982)와 연관된 어플리케이션을 제2 모드로 제어하는 모드를 의미할 수 있다.
일 실시 예에서, 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고 전자 장치(901)의 사용자의 얼굴을 추적 중이 아니고 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 내에 있음을 식별하는 경우, 전자 장치(901)는 제2 모드로 동작할 수 있다.
상기 제2 각도 범위는 90°초과 180°이하의 각도 범위에 포함될 수 있다. 다만 상기 제2 각도 범위는 180°포함할 수 있다.
일 실시 예에서, 제1 각도 범위 및 제2 각도 범위는 중첩되지 않을 수 있다.
전자 장치(901)의 사용자의 얼굴을 추적 중이 아닌 경우는, 예를 들면 사용자가 얼굴을 추적을 하지 않을 것을 선택하기 위한 객체(1123)를 선택한 경우일 수 있다. 다른 예를 들면, 제2 카메라(982)에 의해 획득된 이미지에 포함된 얼굴이 사용자의 얼굴(1121) 또는 기 등록된 사용자의 얼굴과 일치하지 않은 경우일 수 있다. 다른 예를 들면, 제2 카메라(982)에 의해 획득되는 이미지 내에 얼굴이 포함되지 않았거나 얼굴을 인식하지 못한 경우일 수 있다.
일 실시 예에서, 제2 모드로 동작하는 전자 장치(901)는 제1 표시 영역(961) 및 제2 표시 영역(962)을 포함하는 플렉서블 디스플레이(960) 상의 표시 영역에 결합 화면(303)을 표시할 수 있다.
다른 실시 예에서, 제1 파트(911) 및 제2 파트(912)가 이루는 각도와 관계없이, 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고 전자 장치(901)의 사용자의 얼굴을 추적 중이 아닌 경우, 전자 장치(901)는 제2 모드로 동작할 수도 있다.
도 14는 일 실시 예에 따른 전자 장치(901)가 제3 모드로 동작하는 예를 도시한다.
도 14를 참조하면, 전자 장치(901)는 제3 모드로 동작할 수 있다. 일 실시 예에서, 전자 장치(901)의 제3 모드는 제1 카메라(981) 및/또는 제2 카메라(982)와 연관된 어플리케이션을 제3 모드로 제어하는 모드를 의미할 수 있다.
일 실시 예에서, 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고, 전자 장치(901)의 사용자의 얼굴을 추적 중이 아니고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않으며 제1 파트(911)가 지면을 향함을 식별하는 경우, 전자 장치(901)는 제3 모드로 동작할 수 있다.
일 실시 예에서 제1 파트(911)가 지면을 향하는 경우는 제1 파트(911)의 측면(916)이 향하는 방향(예: ①번 방향)이 중력 방향을 향하는 경우일 수 있다.
일 실시 예에서, 제3 모드로 동작하는 프로세서(120)는 제2 표시 영역(962)에 프리뷰 화면(301)을 표시하고 제1 표시 영역(961)에 제어 화면(302)을 표시할 수 있다.
다른 실시 예에서, 제1 파트(911)와 제2 파트(912)의 각도 및 제2 파트(912)와 제3 파트(913)의 각도와 관계없이, 프로세서(120)가 전자 장치(901)의 사용자의 얼굴을 추적 중이 아니고 제1 파트(911)가 지면을 향함을 식별하는 경우, 전자 장치(901)는 제3 모드로 동작할 수 있다.
도 15는 일 실시 예에 따른 전자 장치(901)가 제4 모드로 동작하는 예를 도시한다.
도 15를 참조하면, 전자 장치(901)는 제4 모드로 동작할 수 있다. 일 실시 예에서, 전자 장치(901)가 제4 모드로 동작하는 것은, 제1 카메라(981) 및/또는 제2 카메라(982)와 관련된 어플리케이션을 제4 모드로 제어하는 것을 의미할 수 있다.
일 실시 예에서, 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고, 전자 장치(901)의 사용자의 얼굴을 추적 중이 아니고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않고, 제1 파트(911)가 지면을 향하지 않음을 식별하는 경우, 전자 장치(901)는 제4 모드로 동작할 수 있다.
일 실시 예에서 제1 파트(911)가 지면을 향하지 않는 경우는 제1 파트(911)의 측면(916)이 실질적으로 중력 반대 방향을 향하는 경우일 수 있다.
일 실시 예에서, 제4 모드로 동작하는 프로세서(120)는 제2 표시 영역(962)에 결합 화면(303)을 표시할 수 있다.
일 실시 예에서, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 기 설정된 각도 범위 내인 경우, 제4 모드로 동작하는 프로세서(120)는 UI(1501)을 제2 표시 영역(962)에 표시할 수 있다. 상기 기 설정된 각도 범위는 제1 지정된 각도 범위에 포함될 수 있으나, 기 설정된 각도 범위의 최대 값은 90°미만일 수 있다. 상기 UI(1501)는 사용자가 제2 파트(912) 및 제3 파트(913)를 펼치는 경우, 결합 화면(303)이 표시되는 영역이 제2 표시 영역(962)에서 제3 표시 영역(963)으로 변경됨을 지시할 수 있다. 일 실시 예에서, 상기 UI(1501)는 "unfold to view camera UI"와 같은 텍스트를 포함할 수 있다.
일 실시 예에서, 전자 장치(901)의 사용자가 제2 파트(912) 및 제3 파트(913)를 펼치는 경우, 프로세서(120)는 도 12에 도시된 제1 모드와 같이 결합 화면(303)이 표시되는 영역을 제3 표시 영역으로 변경하여 표시할 수 있다.
다른 실시 예에서, 제1 파트(911)와 제2 파트(912)의 각도 및 제2 파트(912)와 제3 파트(913)의 각도와 관계없이, 프로세서(120)가 전자 장치(901)의 사용자의 얼굴을 추적 중이 아니고, 제1 파트(911)가 지면을 향하지 않음을 식별하는 경우, 전자 장치(901)는 제4 모드로 동작할 수 있다.
도 16은 일 실시 예에 따른 전자 장치(901)가 제5 모드로 동작하는 예를 도시한다.
도 16을 참조하면, 전자 장치(901)는 제5 모드로 동작할 수 있다. 일 실시 예에서, 전자 장치(901)가 제5 모드로 동작하는 것은 제1 카메라(981) 및 제2 카메라(982)에 관련된 어플리케이션을 제5 모드로 제어하는 것을 의미할 수 있다.
일 실시 예에서, 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제2 지정된 각도 범위 내이고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내임을 식별하는 경우, 전자 장치(901)는 제5 모드로 동작할 수 있다.
일 실시 예에서, 상기 제2 지정된 각도 범위는 90°초과 180°이하의 각도 범위에 포함될 수 있으며, 180°를 포함할 수 있다. 다만, 도 16에는 전자 장치(901)는, 제1 파트(911)와 제2 파트(912) 및 제2 파트(912)와 제3 파트(913)가 이루는 각도가 실질적으로 180°인 경우를 나타냈다.
일 실시 예에서, 제5 모드로 동작하는 전자 장치(901)의 프로세서(120)는 제1 표시 영역(961), 제2 표시 영역(962), 및 제3 표시 영역(963)을 포함하는 플렉서블 디스플레이(960)의 표시 영역 전부에 결합 화면(303)을 표시할 수 있다.
도 17은 일 실시 예에 따른 전자 장치(901)가 제6 모드로 동작하는 예를 도시한다.
도 17을 참조하면, 전자 장치(901)는 제6 모드로 동작할 수 있다. 일 실시 예에 따른 전자 장치(901)의 상기 제6 모드는, 제1 카메라(981) 및 제2 카메라(982)와 관련된 어플리케이션을 제6 모드로 제어하는 동작 모드를 의미할 수 있다.
일 실시 예에서, 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않고, 제1 파트(911)가 지면을 향함을 식별하는 경우, 전자 장치(901)는 제6 모드로 동작할 수 있다.
일 실시 예에서, 제6 모드로 동작하는 프로세서(120)는 제1 표시 영역(961)에 제어 화면(302)을 표시하고, 제2 표시 영역(962) 및 제3 표시 영역(963)에 프리뷰 화면(301)을 표시할 수 있다.
다른 실시 예에서, 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않고, 전자 장치(901)의 사용자의 얼굴을 추적 중이고, 제1 파트(911)가 지면을 향함을 식별하는 경우, 전자 장치(901)는 제6 모드로 동작할 수도 있다.
도 18은 일 실시 예에 따른 전자 장치(901)가 제7 모드로 동작하는 예를 도시한다.
도 18을 참조하면, 전자 장치(901)는 제7 모드로 동작할 수 있다. 일 실시 예에서, 전자 장치(901)가 제7 모드로 동작한다는 것은 제1 카메라(981) 및 제2 카메라(982)에 관련된 어플리케이션을 제7 모드로 제어하는 것을 의미할 수 있다.
일 실시 예에서, 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제2 지정된 각도 범위 내이고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않으며, 제1 파트(911)가 지면을 향하지 않음을 식별하는 경우, 전자 장치(901)는 제7 모드로 동작할 수 있다.
일 실시 예에서, 제7 모드로 동작하는 프로세서(120)는 제2 표시 영역(962) 및 제3 표시 영역(963)에 결합 화면(303)을 표시할 수 있다.
일 실시 예에서, 제7 모드로 동작하는 프로세서(120)는 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 0°이상 45°미만인 경우, 제1 표시 영역(961) 및 제2 표시 영역(962)을 통해 표시 중인 결합 화면(303)을 제3 표시 영역((963)에 변경하여 표시할 수 있다.
다른 실시 예에서, 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제2 지정된 각도 범위 내이고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않으며, 전자 장치(901)의 사용자의 얼굴을 추적 중이 아니고, 제1 파트(911)가 지면을 향하지 않음을 식별하는 경우, 전자 장치(901)는 제7 모드로 동작할 수도 있다.
도 19는 일 실시 예에 따른 전자 장치(901)가 제1 모드 내지 제4 모드로 동작하는 방법을 도시하는 흐름도이다.
도 19를 참조하면, 동작 1901에서 전자 장치(901)는 카메라와 관련된 어플리케이션을 실행할 수 있다. 예를 들면, 프로세서(120)는 제1 카메라(981) 및 제2 카메라(982)와 관련된 어플리케이션을 실행할 수 있다.
동작 1903에서, 전자 장치(901)는 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내인지 여부를 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값에 기반하여 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 지정된 각도 범위 내인지 여부를 식별할 수 있다. 상기 제1 지정된 각도 범위는 0°이상 180° 미만의 각도 범위에 포함될 수 있으며, 상기 제1 지정된 각도 범위는 90°를 포함할 수 있다. 프로세서(120)가 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내라고 식별한 경우 동작 1905를 수행하고, 그렇지 않은 경우 도 20의 동작 2005를 수행할 수 있다.
동작 1905에서, 전자 장치(901)는 사용자의 얼굴을 추적 중인지 여부를 식별할 수 있다. 예를 들어, 프로세서(120)는 제2 카메라(982)에 의해 획득된 이미지에 포함된 얼굴을 인식하고, 상기 인식에 기반하여 사용자의 얼굴을 추적할 수 있다. 프로세서(120)가 전자 장치(901)의 사용자의 얼굴을 추적 중인 경우 동작 1907을 수행하고, 그렇지 않은 경우 동작 1909를 수행할 수 있다.
동작 1907에서, 전자 장치(901)는 제1 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 지정된 각도 범위 내이고, 제2 카메라(982)를 이용하여 사용자의 얼굴을 추적 중임을 식별하는 경우, 전자 장치(901)가 제1 모드로 동작되도록 할 수 있다. 일 실시 예에서 제1 모드로 동작하는 프로세서(120)는 제3 표시 영역(963)에 결합 화면(303)을 표시할 수 있다.
동작 1909에서, 전자 장치(901)는 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있는 지 여부를 식별할 수 있다. 예를 들면, 전자 장치(901)의 사용자의 얼굴을 추적 중이 아님을 식별한 경우, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값에 기반하여 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내인 지 여부를 식별할 수 있다. 상기 제2 지정된 각도 범위는 90°초과 180°이하의 각도 범위에 포함될 수 있고, 180°를 포함할 수 있다. 다만 제1 지정된 각도 범위와 제2 지정된 각도 범위는 중첩되지 않을 수 있다. 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위를 이루는 경우 동작 1911을 수행하고, 그렇지 않은 경우 동작 1913을 수행할 수 있다.
동작 1911에서, 전자 장치(901)는 제2 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고, 전자 장치(901)의 사용자의 얼굴을 추적 중이 아니고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않음을 식별하는 경우, 전자 장치(901)를 제2 모드로 동작하도록 할 수 있다. 일 실시 예에서, 제2 모드로 동작하는 프로세서(120)는 제1 표시 영역(961) 및 제2 표시 영역(962)에 결합 화면(303)을 표시할 수 있다.
동작 1913에서, 전자 장치(901)는 제1 파트(911)가 지면 방향을 향하는 지 여부를 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값에 기반하여 제1 파트(911)의 측면(916)이 향하는 방향이 지면 방향을 향하는 지 여부를 식별할 수 있다. 제1 파트(911)가 지면을 향하는 경우 동작 1915를 수행하고, 그렇지 않은 경우 동작 1917을 수행할 수 있다.
동작 1915에서, 전자 장치(901)는 제3 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고, 전자 장치(901)의 사용자의 얼굴을 추적 중이 아니고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도를 이루지 않고, 제1 파트(911)가 지면을 향함을 식별하는 경우, 전자 장치(901)를 제3 모드로 동작하도록 할 수 있다. 일 실시 예에서, 제3 모드로 동작하는 프로세서(120)는 제1 표시 영역(961)에 제어 화면(302)을 표시하고 제2 표시 영역(962)에 프리뷰 화면(301)을 표시할 수 있다.
동작 1917에서, 전자 장치(901)는 제4 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제1 지정된 각도 범위 내이고, 전자 장치(901)의 사용자의 얼굴을 추적 중이 아니고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않으며, 제1 파트(911)가 지면을 향하지 않음을 식별하는 경우, 제4 모드로 동작할 수 있다. 일 실시 예에서 제4 모드로 동작하는 프로세서(120)는 제2 표시 영역(962)에 결합 화면(303)을 표시할 수 있다.
도 20은 일 실시 예에 따른 전자 장치(901)가 제5 모드 내지 제7 모드로 동작하는 방법을 나타내는 흐름도이다.
도 20을 참조하면, 동작 2001에서 전자 장치(901)는 카메라와 관련된 어플리케이션을 실행할 수 있다. 예를 들면, 프로세서(120)는 제1 카메라(981) 및 제2 카메라(982)와 관련된 어플리케이션을 실행할 수 있다.
동작 2003에서, 전자 장치(901)는 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제2 지정된 각도를 이루는 지 여부를 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값에 기반하여 제2 파트(912) 및 제3 파트(913)가 이루는 각도를 식별하고, 상기 각도가 제2 지정된 각도 범위 내에 있는 지 여부를 식별할 수 있다. 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 상기 제2 지정된 각도 범위 내인 경우 동작 2005를 수행하고, 그렇지 않은 경우 도 19의 동작 1905를 수행할 수 있다.
동작 2005에서, 전자 장치(901)는 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내인 지 여부를 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)에 의해 획득된 데이터에 기반하여 제1 파트(911) 및 제2 파트(912)가 이루는 각도를 식별하고, 상기 식별에 기반하여 상기 각도가 상기 제2 지정된 각도 범위 내인지 여부를 식별할 수 있다. 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내인 경우 동작 2007을 수행하고, 그렇지 않은 경우 동작 2009를 수행할 수 있다.
동작 2007에서, 전자 장치(901)는 제5 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제2 파트(912) 및 제3 파트(913)가 이루는 각도 및 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내인 경우, 전자 장치(901)를 제5 모드로 동작하도록 할 수 있다. 일 실시 예에서 제5 모드로 동작하는 프로세서(120)는 제1 표시 영역(961), 제2 표시 영역(962), 및 제3 표시 영역(963)에 결합 화면(303)을 표시할 수 있다.
동작 2009에서, 전자 장치(901)는 제1 파트(911)가 지면 방향을 향하는지 여부를 식별할 수 있다. 예를 들면, 프로세서(120)는 센서 모듈(176)에 의해 획득된 값에 기반하여 제1 파트(911)의 측면(916)이 지면 방향을 향하는 지 여부를 식별할 수 있다. 제1 파트(911)가 지면을 향하는 경우 동작 2011을 수행하고, 그렇지 않은 경우 동작 2013을 수행할 수 있다.
동작 2011에서, 전자 장치(901)는 제6 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제2 파트(912) 및 제3 파트(913)가 이루는 각도가 제2 지정된 각도 범위 내이고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않으며, 제1 파트(911)가 지면을 향함을 식별하는 경우, 전자 장치(901)를 제6 모드로 동작하도록 할 수 있다. 일 실시 예에서, 제6 모드로 동작하는 프로세서(120)는 제1 표시 영역(961)에 제어 화면(302)을 표시하고, 제2 표시 영역(962) 및 제3 표시 영역(963)에 프리뷰 화면(301)을 표시할 수 있다.
동작 2013에서, 전자 장치는 제7 모드로 동작할 수 있다. 예를 들면, 프로세서(120)는 제2 파트(911) 및 제3 파트(913)가 이루는 각도가 제2 지정된 각도 범위 내이고, 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 제2 지정된 각도 범위 내에 있지 않고, 제1 파트(911)가 지면을 향하지 않는 경우, 전자 장치(901)를 제7 모드로 동작하도록 할 수 있다. 일 실시 예에서, 제7 모드로 동작하는 프로세서(120)는 제2 표시 영역(962) 및 제3 표시 영역(963)에 결합 화면(303)을 표시할 수 있다. 일 실시 예에서, 전자 장치(901)가 제7 모드로 동작하는 동안 제1 파트(911) 및 제2 파트(912)가 이루는 각도가 기 정의된 각도 범위(예: 0°이상 45°미만) 내인 경우, 상기 결합 화면(303)이 표시되는 영역을 제2 표시 영역(962) 및 제3 표시 영역(963)에서 제3 표시 영역(963)으로 변경하여 표시할 수 있다.
도 21은 일 실시 예에 따른 전자 장치(901)가 제2 카메라(982)에 의해 획득된 프리뷰 이미지를 표시하는 예를 도시한다.
도 21을 참조하면, 프로세서(120)는 제2 카메라(982)를 통해 이미지를 획득할 수 있다. 프로세서(120)는 상기 획득된 이미지에 포함된 사용자의 얼굴(2101)을 식별할 수 있다. 프로세서(120)는 사용자의 얼굴(2101)을 식별한 이후 제2 카메라(982)를 통해 획득되는 이미지에 포함된 얼굴을 인식하고 상기 인식된 얼굴을 상기 식별된 사용자의 얼굴(2101)과 비교함으로써, 사용자의 얼굴(2101)을 추적할 수 있다. 다른 실시 예에서, 프로세서(120)는 전자 장치(901)의 메모리에 미리 저장되거나 등록된 사용자의 얼굴과 제2 카메라(982)를 통해 획득되는 이미지에 포함된 얼굴을 비교함으로써, 사용자 얼굴을 추적할 수도 있다. 프로세서(120)가 사용자 얼굴(2101)을 추적하고 있는 경우, 제2 카메라(982)를 통해 획득되는 이미지의 적어도 일부에 기반한 프리뷰 이미지(2102)를 플렉서블 디스플레이(960)에 표시할 수 있다. 프로세서(120)는 상기 프리뷰 이미지(2102)를 제1 카메라(981)를 통해 획득되는 프리뷰 이미지(2110)와 중첩으로 표시할 수 있다.
일 실시 예에서, 프로세서(120)는 사용자 얼굴(2101)을 추적하고 있지 않은 경우, 제2 카메라(982)에 기반한 프리뷰 이미지를 표시하지 않을 수 있다. 이 경우, 프로세서(120)는 플렉서블 디스플레이(960)에 제1 카메라(981)로부터 획득되는 프리뷰 이미지(2110)만을 표시할 수 있다.
일 실시 예에서, 전자 장치(901)가 사용자 얼굴(2101)을 추적 중인 상태에서 상기 추적을 중지하는 경우, 플렉서블 디스플레이(960)에 표시 중인 프리뷰 이미지(2102)를 페이드아웃(fade-out)하여 플렉서블 디스플레이(960)에 표시되지 않도록 할 수 있다.
도 22는 일 실시 예에 따른 전자 장치(901)가 제2 카메라(982)에 의해 획득된 이미지를 보정하여 프리뷰 이미지를 표시하는 예를 도시한다.
도 22를 참조하면, 프로세서(120)는 제2 카메라(982)를 이용하여 제1 이미지(2210), 제2 이미지(2220), 및 제3 이미지(2230)를 획득할 수 있다.
일 실시 예에서, 제1 이미지(2210)는 사용자 얼굴(2201)이 제1 이미지(2210)의 중심에서 벗어난 상태에서 촬영된 이미지 일 수 있다. 이 경우, 프로세서(120)는 상기 중심에서 벗어난 사용자 얼굴(2201)을 이미지의 중심에 위치하도록 보정하여 프리뷰 이미지(2102)를 표시할 수 있다.
일 실시 예에서, 제2 이미지(2220)는 사용자 얼굴(2201)이 확대되거나 제2 카메라(982)로부터 가까운 거리에서 촬영된 이미지일 수 있다. 이 경우, 프로세서(120)는 제2 이미지(2220)의 사용자 얼굴(2201)을 축소하여 프리뷰 이미지(2102)를 표시할 수 있다.
일 실시 예에서, 제3 이미지(2230)는 사용자 얼굴(2201)이 축소되거나 제2 카메라(982)로부터 먼 거리에서 촬영된 이미지일 수 있다. 이 경우, 프로세서(120)는 제3 이미지(2230)의 사용자 얼굴 2201)을 확대하여 프리뷰 이미지(2102)를 표시할 수 있다.
다양한 실시 예에 따른 전자 장치는, 복수 개의 파트들 및 상기 복수 개의 파트들을 연결하는 적어도 하나의 힌지 구조를 포함하는 하우징 - 여기서 상기 적어도 하나의 힌지 구조 중 제1 힌지 구조는 상기 복수 개의 파트들 중 제1 파트 및 제2 파트를 연결하도록 상기 제1 파트 및 상기 제2 파트 사이에 배치됨 -, 상기 제1 파트에 배치되는 제1 센서, 상기 제2 파트에 배치되는 제2 센서, 상기 하우징에 의해 형성되는 공간에 배치되고, 각각의 상기 복수 개의 파트들이 이루는 각도에 따라 구부러질 수 있는 디스플레이, 상기 제1 파트에서 상기 디스플레이에 대향하는 면에 배치되는 제1 카메라 및 상기 제1 센서, 상기 제2 센서, 상기 디스플레이 및 상기 제1 카메라와 전기적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제1 카메라와 연관된 카메라 어플리케이션을 실행하고, 상기 제1 센서에 의해 획득된 값에 기반하여 상기 제1 파트의 자세를 식별하고, 상기 제2 센서에 의해 획득된 값에 기반하여 상기 제2 파트의 자세를 식별하고, 상기 식별된 제1 파트의 자세 및 상기 식별된 제2 파트의 자세에 기반하여 상기 제1 파트 및 상기 제2 파트가 이루는 각도를 식별하고, 상기 각도가 제1 지정된 범위 이내인 경우, 상기 디스플레이의 표시 영역 중 상기 제2 파트에 대응되는 제2 표시 영역에 상기 제1 카메라에 의해 획득된 프리뷰 이미지를 표시하고, 상기 각도가 제2 지정된 범위 이내인 경우, 상기 디스플레이의 표시 영역 중 상기 제1 파트에 대응되는 제1 표시 영역 및 상기 제2 표시 영역에 상기 프리뷰 이미지를 표시하고, 상기 카메라 어플리케이션의 UI(user interface)를 상기 디스플레이를 통해 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 식별된 제1 파트의 자세 및 상기 식별된 제2 파트의 자세에 기반하여, 상기 제1 파트 및 상기 제2 파트의 상대적인 위치를 판단하고, 상기 제1 파트가 상기 제2 파트보다 상대적으로 아래에 위치하고 상기 각도가 상기 제1 지정된 범위 내에 있는 경우, 상기 UI를 상기 제1 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제1 파트가 상기 제2 파트보다 상대적으로 위에 위치하고 상기 각도가 상기 제1 지정된 각도 범위 내에 있는 경우, 상기 UI를 상기 제1 표시 영역에 상기 프리뷰 이미지와 중첩으로 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는 상기 각도가 상기 제2 지정된 범위 내에 있는 경우, 상기 UI를 상기 프리뷰 이미지와 중첩으로 상기 제1 표시 영역 및 상기 제2 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 식별된 제1 파트의 자세에 기반하여 상기 제1 파트가 지면에 평행한지 판단하고, 상기 제1 파트가 상기 지면에 평행한 경우, 상기 제1 카메라의 촬영 각도(camera angle)가 지면에 실질적으로 수직임을 나타내는 시각적 객체를 상기 제2 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 제1 지정된 각도 범위는 90°이상 170°미만이고, 상기 제2 지정된 각도 범위는 170°이상 180°이하일 수 있다.
일 실시 예에서, 상기 UI는 상기 제1 카메라를 제어하기 위한 적어도 하나의 시각적 객체를 포함할 수 있다.
일 실시 예에서, 상기 프리뷰 이미지는 상기 제1 카메라에 의해 획득된 이미지의 적어도 일부에 기반하여 획득될 수 있다.
일 실시 예에 따른 전자 장치는 상기 복수 개의 파트들 중 제3 파트에서 상기 제3 파트에 대응되는 상기 디스플레이의 제3 표시 영역이 위치하는 면에 배치되는 제2 카메라 및 상기 제3 파트에 배치되는 제3 센서를 포함하고, 상기 제3 파트는 상기 적어도 하나의 힌지 구조 중 제2 힌지 구조에 의해 상기 제2 파트에 연결되고, 상기 적어도 하나의 프로세서는, 상기 제3 센서에 의해 획득된 값에 기반하여 상기 제3 파트의 자세를 식별하고, 상기 식별된 제2 파트의 자세 및 상기 식별된 제3 파트의 자세에 기반하여, 상기 제2 파트 및 상기 제3 파트가 이루는 각도를 식별하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제2 카메라를 통해 획득되는 이미지에 포함되는 상기 전자 장치의 사용자 얼굴을 인식하고, 상기 사용자의 얼굴을 인식한 다음에 상기 제2 카메라를 통해 획득되는 이미지에 포함되는 얼굴과 상기 인식된 사용자의 얼굴을 비교하여 상기 사용자의 얼굴을 추적하고, 상기 사용자의 얼굴을 추적 중 인지 여부에 기반하여 상기 UI를 상기 디스플레이에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제2 파트 및 상기 제3 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고, 상기 제2 카메라를 통해 상기 사용자의 얼굴을 추적하고 있는 중이 아니고, 상기 제1 파트 및 상기 제2 파트가 이루는 각도가 상기 제2 지정된 각도 범위 내인 경우, 상기 UI(user interface)를 상기 프리뷰 이미지와 중첩으로 상기 제1 표시 영역 및 상기 제2 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 식별된 제1 파트의 자세에 기반하여, 상기 제1 파트의 가장자리 중 상기 제1 힌지 구조의 반대편에 위치하고 상기 제1 힌지 구조로부터 가장 먼 제1 가장자리가 향하는 방향을 식별하고, 상기 제1 가장자리가 향하는 방향의 식별에 기반하여, 상기 UI를 상기 디스플레이에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제2 파트 및 상기 제3 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고, 상기 제2 카메라를 통해 상기 사용자의 얼굴을 추적하고 있는 중이 아니고, 상기 제1 파트 및 상기 제2 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고, 상기 제1 가장자리가 향하는 방향이 지면 방향을 향하는 경우, 상기 UI를 상기 제1 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제2 파트 및 상기 제3 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고, 상기 제2 카메라를 통해 상기 사용자의 얼굴을 추적하고 있는 중이 아니고, 상기 제1 파트 및 상기 제2 파트가 이루는 각도가 상기 제2 지정된 각도 범위 내이고, 상기 제1 가장자리가 향하는 방향이 지면 반대 방향인 경우, 상기 제1 표시 영역 및 상기 제2 표시 영역에 표시되는 상기 프리뷰 이미지를 상기 제2 표시 영역에만 표시하고 상기 UI를 상기 프리뷰 이미지와 중첩으로 상기 제2 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 프리뷰 이미지 및 상기 UI가 상기 제2 표시 영역에 표시되는 동안, 상기 제2 파트 및 상기 제3 파트를 펼치는 경우 상기 UI가 표시되는 상기 디스플레이의 표시 영역이 변경됨을 지시하는 시각적 객체를 상기 제2 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 제2 파트 및 상기 제3 파트가 이루는 각도가 상기 제2 지정된 각도 범위 내에 있고 상기 제1 파트 및 상기 제2 파트가 이루는 각도가 상기 지정된 각도 범위 내인 경우, 상기 제1 표시 영역 및 상기 제2 표시 영역에 표시 중인 상기 프리뷰 이미지를 상기 제1 표시 영역, 상기 제2 표시 영역, 및 상기 제3 표시 영역에 표시하고 상기 UI를 상기 프리뷰 이미지와 중첩으로 상기 제1 표시 영역, 상기 제2 표시 영역, 및 상기 제3 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 식별된 제1 파트의 자세에 기반하여, 상기 제1 파트의 가장자리 중 상기 제1 힌지 구조의 반대편에 위치하고 상기 제1 힌지 구조로부터 가장 먼 제1 가장자리가 향하는 방향을 식별하고, 상기 제2 파트 및 상기 제3 파트가 이루는 각도가 상기 제2 지정된 각도 범위 내이고 상기 제1 파트 및 상기 제2 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고 상기 제1 가장자리가 향하는 방향이 지면(ground)을 향하는 경우, 상기 제2 표시 영역에 표시되는 상기 프리뷰 이미지를 상기 제1 표시 영역 및 상기 제2 표시 영역에 변경하여 표시하고 상기 UI를 상기 제3 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 적어도 하나의 프로세서는, 상기 식별된 제1 파트의 자세에 기반하여, 상기 제1 파트의 가장자리 중 상기 제1 힌지 구조의 반대편에 위치하고 상기 제1 힌지 구조로부터 가장 먼 제1 가장자리가 향하는 방향을 식별하고, 상기 제2 파트 및 상기 제3 파트가 이루는 각도가 상기 제2 지정된 각도 범위 내이고 상기 제1 파트 및 상기 제2 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고 상기 제1 가장자리가 향하는 방향이 지면(ground) 반대 방향인 경우, 상기 제2 표시 영역에 표시되는 상기 프리뷰 이미지를 상기 제2 표시 영역 및 상기 제3 표시 영역에 변경하여 표시하고 상기 UI를 상기 프리뷰 이미지와 중첩으로 상기 제2 표시 영역 및 상기 제3 표시 영역에 표시하도록 설정될 수 있다.
일 실시 예에서, 상기 제1 센서, 상기 제2 센서, 및 상기 제3 센서는 자이로(gyro sensor) 및 가속도 센서 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른 전자 장치는 제1 파트, 제2 파트, 제3 파트, 상기 제1 파트와 상기 제2 파트를 연결하는 제1 힌지 구조, 및 상기 제2 파트와 상기 제3 파트를 연결하는 제2 힌지 구조를 포함하는 하우징, 상기 하우징 내에 배치되는 적어도 하나의 센서, 상기 하우징에 의해 형성되는 공간에 배치되는 플렉서블 디스플레이, 상기 제1 파트에서 상기 플렉서블 디스플레이에 대향하는 면에 배치되는 제1 카메라, 상기 제3 파트에서 상기 플렉서블 디스플레이가 배치되는 면에 배치되는 제2 카메라 및 상기 적어도 하나의 센서, 상기 디스플레이, 상기 제1 카메라 및 상기 제2 카메라와 전기적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제1 카메라와 연관된 카메라 어플리케이션을 실행하고, 상기 적어도 하나의 센서에 의해 획득된 값에 기반하여 상기 제2 파트와 상기 제3 파트가 이루는 각도가 제1 지정된 각도 범위 내인지 식별하고, 상기 제2 카메라를 통해 상기 전자 장치의 사용자의 얼굴을 인식하고, 상기 인식 이후에 상기 제2 카메라를 통해 획득되는 이미지에 포함되는 얼굴과 상기 인식된 사용자의 얼굴을 비교함으로써, 상기 사용자의 얼굴을 추적하고, 상기 식별 및 상기 추적에 기반하여, 상기 제1 카메라에 의해 획득된 프리뷰 이미지를 상기 제3 파트에 대응되는 상기 디스플레이의 영역에 표시하고 상기 카메라 어플리케이션의 UI(user interface)를 상기 프리뷰 이미지와 중첩으로 상기 디스플레이의 상기 영역에 표시하도록 설정될 수 있다.
상술한 본 개시의 구체적인 실시 예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위 뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
Claims (15)
- 전자 장치에 있어서,복수 개의 파트들 및 상기 복수 개의 파트들을 연결하는 적어도 하나의 힌지 구조를 포함하는 하우징, 상기 적어도 하나의 힌지 구조 중 제1 힌지 구조는 상기 복수 개의 파트들 중 제1 파트 및 제2 파트를 연결하도록 상기 제1 파트 및 상기 제2 파트 사이에 배치됨;상기 제1 파트에 배치되는 제1 센서;상기 제2 파트에 배치되는 제2 센서;상기 하우징에 의해 형성되는 공간에 배치되고, 각각의 상기 복수 개의 파트들이 이루는 각도에 따라 구부러질 수 있는 디스플레이;상기 제1 파트에서 상기 디스플레이에 대향하는 면에 배치되는 제1 카메라; 및상기 제1 센서, 상기 제2 센서, 상기 디스플레이 및 상기 제1 카메라와 전기적으로 연결된 적어도 하나의 프로세서를 포함하고,상기 적어도 하나의 프로세서는:상기 제1 카메라와 연관된 카메라 어플리케이션을 실행하고,상기 제1 센서에 의해 획득된 값에 기반하여 상기 제1 파트의 자세를 식별하고,상기 제2 센서에 의해 획득된 값에 기반하여 상기 제2 파트의 자세를 식별하고,상기 식별된 제1 파트의 자세 및 상기 식별된 제2 파트의 자세에 기반하여 상기 제1 파트 및 상기 제2 파트가 이루는 각도를 식별하고,상기 각도가 제1 지정된 범위 이내인 경우, 상기 디스플레이의 표시 영역 중 상기 제2 파트에 대응되는 제2 표시 영역에 상기 제1 카메라에 의해 획득된 프리뷰 이미지를 표시하고,상기 각도가 제2 지정된 범위 이내인 경우, 상기 디스플레이의 표시 영역 중 상기 제1 파트에 대응되는 제1 표시 영역 및 상기 제2 표시 영역에 상기 프리뷰 이미지를 표시하고,상기 카메라 어플리케이션의 UI(user interface)를 상기 디스플레이를 통해 표시하도록 설정되는, 전자 장치.
- 청구항 1에 있어서,상기 적어도 하나의 프로세서는:상기 식별된 제1 파트의 자세 및 상기 식별된 제2 파트의 자세에 기반하여, 상기 제1 파트 및 상기 제2 파트의 상대적인 위치를 판단하고,상기 제1 파트가 상기 제2 파트보다 상대적으로 아래에 위치하고 상기 각도가 상기 제1 지정된 범위 내에 있는 경우, 상기 UI를 상기 제1 표시 영역에 표시하도록 설정되는, 전자 장치.
- 청구항 2에 있어서,상기 적어도 하나의 프로세서는:상기 제1 파트가 상기 제2 파트보다 상대적으로 위에 위치하고 상기 각도가 상기 제1 지정된 각도 범위 내에 있는 경우, 상기 UI를 상기 제1 표시 영역에 상기 프리뷰 이미지와 중첩으로 표시하도록 설정되는, 전자 장치.
- 청구항 1에 있어서,상기 적어도 하나의 프로세서는:상기 각도가 상기 제2 지정된 범위 내에 있는 경우, 상기 UI를 상기 프리뷰 이미지와 중첩으로 상기 제1 표시 영역 및 상기 제2 표시 영역에 표시하도록 설정되는, 전자 장치.
- 청구항 2에 있어서,상기 적어도 하나의 프로세서는:상기 식별된 제1 파트의 자세에 기반하여 상기 제1 파트가 지면에 평행한지 판단하고,상기 제1 파트가 상기 지면에 평행한 경우, 상기 제1 카메라의 촬영 각도(camera angle)가 지면에 실질적으로 수직임을 나타내는 시각적 객체를 상기 제2 표시 영역에 표시하도록 설정되는, 전자 장치.
- 청구항 1에 있어서,상기 제1 지정된 각도 범위는 90°이상 170°미만이고,상기 제2 지정된 각도 범위는 170°이상 180°이하인, 전자 장치.
- 청구항 1에 있어서,상기 UI는 상기 제1 카메라를 제어하기 위한 적어도 하나의 시각적 객체를 포함하는, 전자 장치.
- 청구항 1에 있어서,상기 프리뷰 이미지는 상기 제1 카메라에 의해 획득된 이미지의 적어도 일부에 기반하여 획득되는, 전자 장치.
- 청구항 2에 있어서,상기 복수 개의 파트들 중 제3 파트에서 상기 제3 파트에 대응되는 상기 디스플레이의 제3 표시 영역이 위치하는 면에 배치되는 제2 카메라; 및상기 제3 파트에 배치되는 제3 센서를 포함하고,상기 제3 파트는 상기 적어도 하나의 힌지 구조 중 제2 힌지 구조에 의해 상기 제2 파트에 연결되고,상기 적어도 하나의 프로세서는:상기 제3 센서에 의해 획득된 값에 기반하여 상기 제3 파트의 자세를 식별하고,상기 식별된 제2 파트의 자세 및 상기 식별된 제3 파트의 자세에 기반하여, 상기 제2 파트 및 상기 제3 파트가 이루는 각도를 식별하도록 설정되는 전자 장치.
- 청구항 9에 있어서,상기 적어도 하나의 프로세서는:상기 제2 카메라를 통해 획득되는 이미지에 포함되는 상기 전자 장치의 사용자 얼굴을 인식하고,상기 사용자의 얼굴을 인식한 다음에 상기 제2 카메라를 통해 획득되는 이미지에 포함되는 얼굴과 상기 인식된 사용자의 얼굴을 비교하여 상기 사용자의 얼굴을 추적하고,상기 사용자의 얼굴을 추적 중 인지 여부에 기반하여 상기 UI를 상기 디스플레이에 표시하도록 더 설정되는, 전자 장치.
- 청구항 10에 있어서, 상기 적어도 하나의 프로세서는:상기 제2 파트 및 상기 제3 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고, 상기 제2 카메라를 통해 상기 사용자의 얼굴을 추적하고 있는 중이 아니고, 상기 제1 파트 및 상기 제2 파트가 이루는 각도가 상기 제2 지정된 각도 범위 내인 경우:상기 UI(user interface)를 상기 프리뷰 이미지와 중첩으로 상기 제1 표시 영역 및 상기 제2 표시 영역에 표시하도록 설정되는, 전자 장치.
- 청구항 10에 있어서,상기 적어도 하나의 프로세서는:상기 식별된 제1 파트의 자세에 기반하여, 상기 제1 파트의 가장자리 중 상기 제1 힌지 구조의 반대편에 위치하고 상기 제1 힌지 구조로부터 가장 먼 제1 가장자리가 향하는 방향을 식별하고,상기 제1 가장자리가 향하는 방향의 식별에 기반하여, 상기 UI를 상기 디스플레이에 표시하도록 설정되는, 전자 장치.
- 청구항 12에 있어서,상기 적어도 하나의 프로세서는:상기 제2 파트 및 상기 제3 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고, 상기 제2 카메라를 통해 상기 사용자의 얼굴을 추적하고 있는 중이 아니고, 상기 제1 파트 및 상기 제2 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고, 상기 제1 가장자리가 향하는 방향이 지면 방향을 향하는 경우, 상기 UI를 상기 제1 표시 영역에 표시하도록 설정되는, 전자 장치.
- 청구항 12에 있어서,상기 적어도 하나의 프로세서는:상기 제2 파트 및 상기 제3 파트가 이루는 각도가 상기 제1 지정된 각도 범위 내이고, 상기 제2 카메라를 통해 상기 사용자의 얼굴을 추적하고 있는 중이 아니고, 상기 제1 파트 및 상기 제2 파트가 이루는 각도가 상기 제2 지정된 각도 범위 내이고, 상기 제1 가장자리가 향하는 방향이 지면 반대 방향인 경우, 상기 제1 표시 영역 및 상기 제2 표시 영역에 표시되는 상기 프리뷰 이미지를 상기 제2 표시 영역에만 표시하고 상기 UI를 상기 프리뷰 이미지와 중첩으로 상기 제2 표시 영역에 표시하도록 설정되는, 전자 장치.
- 전자 장치에 있어서,제1 파트, 제2 파트, 제3 파트, 상기 제1 파트와 상기 제2 파트를 연결하는 제1 힌지 구조, 및 상기 제2 파트와 상기 제3 파트를 연결하는 제2 힌지 구조를 포함하는 하우징;상기 하우징 내에 배치되는 적어도 하나의 센서;상기 하우징에 의해 형성되는 공간에 배치되는 플렉서블 디스플레이;상기 제1 파트에서 상기 플렉서블 디스플레이에 대향하는 면에 배치되는 제1 카메라;상기 제3 파트에서 상기 플렉서블 디스플레이가 배치되는 면에 배치되는 제2 카메라; 및상기 적어도 하나의 센서, 상기 디스플레이, 상기 제1 카메라 및 상기 제2 카메라와 전기적으로 연결된 적어도 하나의 프로세서를 포함하고,상기 적어도 하나의 프로세서는:상기 제1 카메라와 연관된 카메라 어플리케이션을 실행하고,상기 적어도 하나의 센서에 의해 획득된 값에 기반하여 상기 제2 파트와 상기 제3 파트가 이루는 각도가 제1 지정된 각도 범위 내인지 식별하고,상기 제2 카메라를 통해 상기 전자 장치의 사용자의 얼굴을 인식하고,상기 인식 이후에 상기 제2 카메라를 통해 획득되는 이미지에 포함되는 얼굴과 상기 인식된 사용자의 얼굴을 비교함으로써, 상기 사용자의 얼굴을 추적하고,상기 식별 및 상기 추적에 기반하여, 상기 제1 카메라에 의해 획득된 프리뷰 이미지를 상기 제3 파트에 대응되는 상기 디스플레이의 영역에 표시하고 상기 카메라 어플리케이션의 UI(user interface)를 상기 프리뷰 이미지와 중첩으로 상기 디스플레이의 상기 영역에 표시하도록 설정되는, 전자 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20896409.8A EP4068043A4 (en) | 2019-12-02 | 2020-11-26 | FOLDABLE ELECTRONIC DEVICE WITH CAMERA |
EP24183509.9A EP4411702A3 (en) | 2019-12-02 | 2020-11-26 | Foldable electronic device comprising camera |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190158400A KR20210068853A (ko) | 2019-12-02 | 2019-12-02 | 카메라를 포함하는 폴더블 전자 장치 |
KR10-2019-0158400 | 2019-12-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021112490A1 true WO2021112490A1 (ko) | 2021-06-10 |
Family
ID=76222118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2020/016929 WO2021112490A1 (ko) | 2019-12-02 | 2020-11-26 | 카메라를 포함하는 폴더블 전자 장치 |
Country Status (3)
Country | Link |
---|---|
EP (2) | EP4411702A3 (ko) |
KR (1) | KR20210068853A (ko) |
WO (1) | WO2021112490A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113488516A (zh) * | 2021-06-28 | 2021-10-08 | 武汉华星光电半导体显示技术有限公司 | 显示面板及显示装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118672532A (zh) * | 2023-03-20 | 2024-09-20 | 华为技术有限公司 | 一种应用界面显示方法及相关装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100081821A (ko) * | 2009-01-07 | 2010-07-15 | 엘지전자 주식회사 | 이동 단말기 및 그의 줌 이미지 제어방법 |
KR20140115913A (ko) * | 2013-03-21 | 2014-10-01 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어 방법 |
KR20170079545A (ko) * | 2015-12-30 | 2017-07-10 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR20190089293A (ko) * | 2018-01-22 | 2019-07-31 | 엘지전자 주식회사 | 전자 기기 및 그 제어방법 |
US20190339745A1 (en) * | 2018-05-04 | 2019-11-07 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Mobile terminal and camera assembly |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102171450B1 (ko) * | 2014-08-18 | 2020-10-29 | 엘지전자 주식회사 | 포터블 디바이스 및 그 제어 방법 |
WO2016052778A1 (ko) * | 2014-10-01 | 2016-04-07 | 엘지전자 주식회사 | 포터블 디바이스 및 그 제어 방법 |
CN113268196A (zh) * | 2019-06-05 | 2021-08-17 | 华为技术有限公司 | 一种柔性屏幕的显示方法及电子设备 |
CN110381282B (zh) * | 2019-07-30 | 2021-06-29 | 华为技术有限公司 | 一种应用于电子设备的视频通话的显示方法及相关装置 |
-
2019
- 2019-12-02 KR KR1020190158400A patent/KR20210068853A/ko not_active Application Discontinuation
-
2020
- 2020-11-26 EP EP24183509.9A patent/EP4411702A3/en active Pending
- 2020-11-26 EP EP20896409.8A patent/EP4068043A4/en active Pending
- 2020-11-26 WO PCT/KR2020/016929 patent/WO2021112490A1/ko unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100081821A (ko) * | 2009-01-07 | 2010-07-15 | 엘지전자 주식회사 | 이동 단말기 및 그의 줌 이미지 제어방법 |
KR20140115913A (ko) * | 2013-03-21 | 2014-10-01 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어 방법 |
KR20170079545A (ko) * | 2015-12-30 | 2017-07-10 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR20190089293A (ko) * | 2018-01-22 | 2019-07-31 | 엘지전자 주식회사 | 전자 기기 및 그 제어방법 |
US20190339745A1 (en) * | 2018-05-04 | 2019-11-07 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Mobile terminal and camera assembly |
Non-Patent Citations (1)
Title |
---|
See also references of EP4068043A4 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113488516A (zh) * | 2021-06-28 | 2021-10-08 | 武汉华星光电半导体显示技术有限公司 | 显示面板及显示装置 |
Also Published As
Publication number | Publication date |
---|---|
EP4068043A4 (en) | 2023-05-03 |
KR20210068853A (ko) | 2021-06-10 |
EP4411702A2 (en) | 2024-08-07 |
EP4411702A3 (en) | 2024-10-30 |
EP4068043A1 (en) | 2022-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020213915A1 (en) | Foldable electronic device including sliding structure and method for controlling the same | |
WO2020145697A1 (en) | Method for providing image using foldable display and electronic device for supporting the same | |
WO2021107506A1 (en) | Electronic device for providing augmented reality service and operating method thereof | |
WO2020235885A1 (en) | Electronic device controlling screen based on folding event and method for controlling the same | |
WO2020209549A1 (en) | Electronic device and method for controlling and operating foldable display | |
WO2021101189A1 (en) | Method and device for providing user interface in electronic device having foldable display | |
WO2018135784A1 (en) | Camera module and camera device | |
WO2020230982A1 (ko) | 전자 장치 및 그의 알림 제공 방법 | |
WO2020246727A1 (en) | Foldable electronic device and method for displaying information in foldable electronic device | |
WO2021025534A1 (ko) | 카메라 프리뷰 이미지를 제공하기 위한 전자 장치 및 그의 동작 방법 | |
WO2021107511A1 (ko) | 전자 장치 및 폴더블 디스플레이를 제어 및 운영하는 방법 | |
EP3891586A1 (en) | Electronic device including haptic actuator | |
WO2021020801A1 (ko) | 이벤트에 따라 형태가 전환되는 접이식 전자 장치 및 그 접이식 전자 장치의 형태를 전환하는 방법 | |
WO2019164290A1 (en) | Method of biometric authenticating using plurality of camera with different field of view and electronic apparatus thereof | |
WO2021112525A1 (en) | Electronic device and method for controlling camera motion | |
WO2021225278A1 (ko) | 전자 장치 및 전자 장치에서 배터리 공유 방법 | |
WO2021141450A1 (en) | Camera module and electronic device including the same | |
WO2021075752A1 (en) | Method for providing screen using foldable display and electronic device for supporting same | |
WO2021025376A1 (en) | Electronic device for processing wheel input and operation method thereof | |
WO2019208915A1 (ko) | 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법 | |
WO2021112490A1 (ko) | 카메라를 포함하는 폴더블 전자 장치 | |
WO2021187850A1 (ko) | 멀티 윈도우를 표시하기 위한 폴더블 전자 장치 및 그의 동작 방법 | |
WO2021141453A1 (en) | Camera module and electronic device including the same | |
WO2021025323A1 (en) | Electronic device with flexible display and camera | |
WO2022060126A1 (ko) | 카메라 모듈을 포함하는 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20896409 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2020896409 Country of ref document: EP Effective date: 20220630 |