WO2022010138A1 - 컨텐트를 표시하기 위한 전자 장치 및 그 동작 방법 - Google Patents

컨텐트를 표시하기 위한 전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2022010138A1
WO2022010138A1 PCT/KR2021/007917 KR2021007917W WO2022010138A1 WO 2022010138 A1 WO2022010138 A1 WO 2022010138A1 KR 2021007917 W KR2021007917 W KR 2021007917W WO 2022010138 A1 WO2022010138 A1 WO 2022010138A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
content
information
user
housing
Prior art date
Application number
PCT/KR2021/007917
Other languages
English (en)
French (fr)
Inventor
이희국
김규원
김종규
배수정
발라사헵 산드한투샤르
최인호
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2022010138A1 publication Critical patent/WO2022010138A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1681Details related solely to hinges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Definitions

  • Various embodiments of the present disclosure relate to an electronic device for displaying content and an operating method thereof.
  • Portable digital communication devices include a display, and display various types of content on the display to provide various high-quality services.
  • portable digital communication devices In order to improve the convenience of use of portable digital communication devices by consumers, portable digital communication devices have been implemented to be deformable in various forms. Therefore, even when portable digital communication devices are deformed, it is necessary to implement a technology for providing content displayed on portable digital communication devices to consumers in an undistorted form.
  • the electronic device may include a plurality of housings and a flexible display disposed on the plurality of housings.
  • the electronic device may display content (eg, an image, an image) on the flexible display based on data obtained by executing and driving the application.
  • a plurality of housings are rotated about a rotation axis (eg, a hinge) while displaying content of the electronic device, the flexible display is also deformed (eg, folded) so that the content displayed on the flexible display is distorted and viewed by the user can
  • an electronic device and a method of operating the same prevent a phenomenon in which the content is viewed as distorted by deforming the content to be viewed on one plane when the shape of the electronic device (eg, the angle between the housings) is changed.
  • the electronic device and the method of operating the same may improve the user's visibility of the deformed content by background-processing an area other than the area in which the deformed content of the flexible display is displayed.
  • a foldable electronic device includes at least one sensor, a hinge, a first housing having a part connected to the hinge, a second housing having a part connected to the hinge, the first housing and the A flexible display disposed on a second housing, comprising at least one processor, wherein the at least one processor is configured to: based on a folding angle between the first housing and the second housing corresponding to a first angle range, the first content is displayed on the flexible display, and based on that the folding angle between the first housing and the second housing corresponds to a second angle range, the user's viewpoint information of the foldable electronic device is identified, and the folding angle and Based on the information about the user's viewpoint information, the first content is transformed to display the deformed first content on a first area of the flexible display, and a second different from the first area of the flexible display
  • An electronic device configured to display at least one color set for background processing on an area may be provided.
  • the foldable electronic device has a first shape based on a folding angle between a first housing and a second housing of the electronic device corresponding to a first angle range. based on the confirmation that the user of the foldable electronic device is based on the operation of displaying the first content on the flexible display, and the folding angle between the first housing and the second housing corresponds to a second angle range Based on information about the operation of identifying viewpoint information, the folding angle, and the user's viewpoint information, the first content is transformed and the transformed first content is displayed on the first area of the flexible display of the electronic device and displaying at least one color set for background processing in a second area different from the first area.
  • a foldable electronic device includes at least one sensor, a hinge, a first housing having a part connected to the hinge, a second housing having a part connected to the hinge, the first housing and the A flexible display disposed on a second housing, comprising at least one processor, wherein the at least one processor is configured to: based on a folding angle between the first housing and the second housing corresponding to a first angle range, the first content displaying a first sub-content of , on a first area of the flexible display, and displaying a second sub-content of the first content on a second area of the flexible display, wherein the first housing and the second housing Information related to the user's gaze of the foldable electronic device is identified based on a folding angle between the two corresponding to the second angle range, and the first sub-content is displayed on the first area, while the second information and An electronic device configured to transform the second sub-content and display the transformed second content on the second area based on information about the information related to the user's gaze may be
  • the means for solving the problem are not limited to the above-described solutions, and the solutions not mentioned are to those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. can be clearly understood.
  • an electronic device when the shape of the electronic device (eg, the angle between the housings) is changed, by transforming the content so that the content is viewed on one plane, an electronic device that solves a phenomenon in which the content is viewed as distorted; and A method of its operation may be provided.
  • an electronic device and the method for operating the same when the content is deformed and displayed in order to solve the phenomenon that the content is viewed as being distorted, an area other than the area in which the deformed content is displayed of the flexible display is background processed.
  • an electronic device and an operating method thereof for improving the user's visibility of the modified content may be provided.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure
  • FIG. 2 is a view for explaining various examples of an electronic device including at least two housing structures and a flexible display according to various embodiments of the present disclosure
  • FIG. 3 is a diagram illustrating an unfolded state of an electronic device based on a specific folding direction according to various embodiments of the present disclosure
  • FIG. 4 is a view illustrating a folded state of an electronic device according to various embodiments of the present disclosure
  • FIG. 5 is an exploded perspective view of an electronic device according to various embodiments of the present disclosure.
  • 6A is a diagram for describing an example of a configuration of an electronic device according to various embodiments of the present disclosure
  • 6B is a diagram for describing an example of an operation of displaying content based on coordinates of an electronic device according to various embodiments of the present disclosure
  • FIG. 7 is a flowchart illustrating an example of an operation of an electronic device according to various embodiments of the present disclosure
  • FIG. 8 is a diagram for describing an example of an operation of identifying information related to a gaze of a user of an electronic device and information related to a shape of the electronic device according to various embodiments of the present disclosure
  • FIG. 9 is a diagram for describing an example of an operation of transforming content of an electronic device according to various embodiments of the present disclosure.
  • FIG. 10 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG. 11 is a diagram for describing an example of an operation for calculating first information of an electronic device according to various embodiments of the present disclosure
  • FIG. 12 is a diagram for describing an example of an operation of obtaining a value for calculating first information of an electronic device according to various embodiments of the present disclosure
  • FIG. 13 is a diagram for describing an example of an operation of calculating first information using an obtained value and a specified formula of an electronic device according to various embodiments of the present disclosure
  • FIG. 14 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure.
  • 15 is a diagram for describing an example of an operation of transforming sub content included in content of an electronic device according to various embodiments of the present disclosure
  • 16 is a diagram for describing another example of an operation of an electronic device according to various embodiments of the present disclosure.
  • 17A is a diagram for describing an example of an operation of displaying content when a shape of an electronic device is changed and a condition of the electronic device is satisfied, according to various embodiments of the present disclosure
  • 17B is a diagram for describing an example of an operation of displaying content when a user's gaze is changed and a condition of an electronic device is satisfied, according to various embodiments of the present disclosure
  • 17C is a diagram for describing an example of an operation of displaying content when a shape of an electronic device and a user's gaze are changed according to various embodiments of the present disclosure
  • FIG. 18 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure.
  • 19 is a diagram for describing an example of an operation of displaying at least one color based on a color of a graphic element in a second area of an electronic device according to various embodiments of the present disclosure
  • 20 is a diagram for describing an example of an operation of maintaining display of a graphic element while displaying modified content of an electronic device according to various embodiments of the present disclosure
  • 21 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure.
  • 22 is a diagram for describing an example of an operation of displaying content on a second area of an electronic device according to various embodiments of the present disclosure
  • FIG. 23 is a diagram for explaining another example of an operation of displaying content on a second area of an electronic device according to various embodiments of the present disclosure.
  • FIG. 24 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure.
  • 25 is a diagram for describing an example of an operation of displaying content in an area of a display that cannot be viewed by a user according to various embodiments of the present disclosure
  • 26 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure.
  • 27 is a diagram for explaining an example of an operation of displaying content based on a display mode of an electronic device of an electronic device according to various embodiments of the present disclosure
  • 29 is a diagram for describing an example of an operation of transforming content when a plurality of users of an electronic device are identified according to various embodiments of the present disclosure
  • FIG. 30 is a view for explaining another example of an operation of transforming content when a plurality of users of an electronic device are identified according to various embodiments of the present disclosure
  • 31 is a diagram for explaining another example of an operation of transforming content when a plurality of users of an electronic device are identified according to various embodiments of the present disclosure
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the co-processor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. have.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 , or an external electronic device (eg, a sound output module 155 ) connected directly or wirelessly with the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • FIG. 2 is a view for explaining various examples of an electronic device including at least two housing structures and a flexible display according to various embodiments of the present disclosure
  • the electronic device may include two or more housings, hinges connected to the two or more housings to be foldable, and a flexible display.
  • the flexible display may be disposed on two or more housings, and may be bent according to rotational states of the housings.
  • One side of the two or more housings is respectively connected to a connected hinge, and the two or more housings may be rotated around the hinge. The rotational state of the housings will be described in more detail below.
  • the electronic device may be formed in various shapes according to two or more housing structures and a flexible display provided in the electronic device, and a rotational state of the housing structures.
  • the various forms include a form in which two regions are formed in an electronic device (eg, a flexible display) (half fold ((c) of FIG. 2 )), an electronic device (eg, a flexible display) A form that forms three regions in the display) (eg, Tri fold (FIG. 2 (a)), Z fold (FIG. 2 (b)), Single open gate fold (FIG. 2 (f))), electronic device A form that forms four regions (eg, a flexible display) (eg, a double parallel reverse fold ((d) in FIG.
  • the electronic device includes housing structures rotatably connected to each other and a flexible display, and the housing structures may be rotated in a corresponding shape. According to an embodiment, in the case of an electronic device including at least two housings and at least two displays disposed in each housing, each display of the electronic device may form an angle with each other according to rotational states of the housings.
  • an electronic device including two housings and a flexible display will be taken as an example, and an electronic device and an operating method thereof according to various embodiments will be described.
  • the operation of deforming and displaying the content of the electronic device described below may also be applied to the description of the electronic device including three or more housings and a flexible display. Accordingly, the modified content displayed by the electronic device including three or more housings and the flexible display may be viewed by the user on a virtual plane.
  • the electronic devices have been described as having one display disposed on a plurality of housings, different displays may be provided for each of the plurality of housings. Accordingly, the electronic device and the operating method thereof according to various embodiments described below may be applied mutatis mutandis to the description of the electronic device including at least two or more housings and at least two or more displays disposed in each housing. For example, a description of an area of a flexible display corresponding to one housing hereinafter may be applied mutatis mutandis to a description of a display corresponding to one housing among a plurality of displays provided in an electronic device.
  • FIG. 3 is a diagram illustrating an unfolded state of the electronic device 400 (eg, the electronic device 101 of FIG. 1 ) based on a specific folding direction according to various embodiments of the present disclosure.
  • the electronic device 400 includes a pair of housing structures 410 and 420 that are rotatably coupled with respect to the B-folding axis through a hinge structure 460 to be folded with respect to each other (eg, a foldable housing). structure) and a display 330 (eg, a flexible display or a foldable display) disposed in a space formed by the pair of housing structures 410 and 420 .
  • the display 430 may have a second shape different from the first shape in the unfolded state.
  • the second shape may include a second aspect ratio (16:9) different from the first aspect ratio (eg 4:3).
  • the first housing structure 410 and the second housing structure 420 may be disposed on both sides of the B folding axis (eg, a horizontal folding axis).
  • the first housing structure 410 includes an area in which the camera 414 and various sensors 415 are disposed, unlike the second housing structure 420 , but in other areas, the shape is symmetrical to each other. can have In another embodiment, an area in which the camera 414 and various sensors 415 are disposed may be additionally disposed or replaced with at least a partial area of the second housing structure 420 .
  • At least a portion of the camera 414 or various sensors 415 is disposed in at least a portion of the first housing 410 , and the remaining portion is disposed in at least a portion of the second housing structure 420 . It might be
  • the first housing structure 410 includes a first surface 411 and a first surface 411 disposed to face the front of the electronic device 400 in the unfolded state of the electronic device 400 . It may include a second surface 412 facing the opposite direction, and a first side member 413 surrounding at least a portion of the space between the first surface 411 and the second surface 412 .
  • the second housing structure 420 includes a third surface 421 and a third surface 421 disposed to face the front of the electronic device 400 in the unfolded state of the electronic device 400 . It may include a fourth surface 422 facing the opposite direction, and a second side member 423 surrounding at least a portion of the space between the third surface 421 and the fourth surface 422 .
  • the camera 414 may be exposed on the front side of the electronic device 400 through an opening provided at one corner of the first housing structure 410 .
  • the sensors 415 may include at least one of a proximity sensor, an illuminance sensor, an iris recognition sensor, an ultrasonic sensor, and an indicator.
  • the sensors 415 are exposed on the front surface of the electronic device 400 through an opening provided at one corner of the first housing structure 410 or disposed at the lower end of at least a partial area of the display 430 . can be
  • the first housing structure 410 may include a receiver 416 disposed through at least a partial area.
  • the electronic device 400 includes an ear jack hole, an external speaker module, a SIM card tray, and an interface connector disposed through the first housing structure 410 and/or the second housing structure 420 . It may include a port or at least one key button.
  • the first housing structure 410 and the second housing structure 420 may be in a flat state (eg, the state of FIG. 3 ) or a folded state of the electronic device 400 . (eg, the state of FIG. 4 which will be described later) or an intermediate state may have different angles or distances formed from each other.
  • the electronic device may be in a closed state, an open state, or a half-folded state. folded state), which will be described later.
  • the description of the state may be replaced with the description of the mode.
  • a state (eg, an unfolded state, a folded state, an intermediate state) of the electronic device is set according to an angle between the first housing structure 410 and the second housing structure 420 , and the electronic device
  • An operation of displaying an execution screen of an application may be performed according to a state of the device (eg, a state of housings, a state of a hinge, or a bent state of the flexible display).
  • a state of the device eg, a state of housings, a state of a hinge, or a bent state of the flexible display.
  • the electronic device 400 may include a first motion sensor 440 and a magnetic material (eg, a magnet) 442 disposed on at least a portion of the first housing structure 410 .
  • the first motion sensor 440 may be configured as a combination of at least two of an acceleration sensor, an angular velocity sensor (eg, a gyro sensor), or a geomagnetic sensor.
  • the electronic device 400 may detect a pose and a gesture of the first housing structure 410 through the first motion sensor 440.
  • the first housing structure ( The posture of the 410 may be detected based on the acceleration sensor of the first motion sensor 440 , and the movement of the first housing structure 410 may be detected based on the angular velocity sensor of the first motion sensor 440 .
  • the magnetic body 442 may be disposed on at least a portion of the first housing structure 410 adjacent to the hinge structure 460 .
  • the electronic device 400 may include a second motion sensor 450 and a magnetic force sensor module 452 disposed on at least a portion of the second housing structure 420 .
  • the second motion sensor 450 may include a combination of at least two of an acceleration sensor, an angular velocity sensor (eg, a gyro sensor), or a geomagnetic sensor.
  • the electronic device 400 detects the posture of the second housing structure 420 through the acceleration sensor of the second motion sensor 450 and the second housing structure through the angular velocity sensor of the second motion sensor 450 . The movement of 420 may be detected.
  • the magnetic force sensor module 452 may be disposed on at least a portion of the second housing structure 420 adjacent to the hinge structure 460 .
  • the magnetic body 442 of the first housing structure 410 and the magnetic force sensor module 452 of the second housing structure 420 may at least partially face each other in the folded state of the electronic device 400 as shown in FIG. 4 . can be placed.
  • FIG. 4 is a diagram illustrating a folded state of an electronic device (eg, the electronic device 400 of FIG. 4 ) according to various embodiments of the present disclosure.
  • the electronic device 400 is a pair of housing structures that are rotatably coupled with respect to the B folding axis (eg, a horizontal folding axis) through the hinge structure 460 to be folded with respect to each other. It may include a display 440 (eg, a flexible display (eg, the display of FIG. 4 ), a foldable display) disposed in a space formed by the 410 and 420 and the pair of housing structures 410 and 420 . .
  • a display 440 eg, a flexible display (eg, the display of FIG. 4 ), a foldable display
  • the senor may include a rear camera device 472 and/or a proximity sensor 474 .
  • at least a portion of the sub-display 470 may be visually exposed through the rear surface 412 of the first housing structure 410 .
  • one or more components may be disposed or visually exposed on the rear surface of the electronic device 400 .
  • one or more components or sensors may be visually exposed through the rear surface (second surface) 412 of the first housing structure 410 .
  • the sensors may include a rear camera device 472 and/or a proximity sensor 474 .
  • at least a portion of the sub-display 470 may be visually exposed through the rear surface 412 of the first housing structure 410 .
  • FIG. 5 is an exploded perspective view of an electronic device 400 (eg, the electronic device 400 of FIG. 3 ) according to various embodiments of the present disclosure.
  • the electronic device 500 includes a display 510 (eg, the display 430 of FIG. 4 ) and a foldable housing 520 (eg, the first housing of FIG. 4 ). structure 410 and the second housing structure 420 ), a printed circuit board 530 , a hinge structure 540 , an antenna module 570 , and a rear cover 580 .
  • a display 510 eg, the display 430 of FIG. 4
  • a foldable housing 520 eg, the first housing of FIG. 4
  • structure 410 and the second housing structure 420 e.g, the first housing of FIG. 4
  • structure 410 and the second housing structure 420 e.g, the second housing structure 420
  • a printed circuit board 530 e.g., a hinge structure 540 , an antenna module 570 , and a rear cover 580 .
  • the display 510 may be exposed through a significant portion of the front plate 511 .
  • the shape of the display 510 may be substantially the same as the outer shape of the front plate 511 .
  • the foldable housing 520 includes a first housing 521 and a second housing 522 (eg, the first housing structure 410 and the second housing structure 420 of FIG. 4 ).
  • the first housing 521 includes a first surface 521a, a second surface 521b facing in a direction opposite to the first surface 521a
  • the second housing 522 includes a third A surface 522a and a fifth surface 522b facing in a direction opposite to the third surface 522a may be included.
  • the foldable housing 520 may additionally or alternatively include a bracket assembly.
  • the bracket assembly may include a first bracket assembly 523 disposed in the first housing structure 521 and a second bracket assembly 524 disposed in the second housing structure 522 . At least a portion of the bracket assembly, for example, a portion 525 including at least a portion of the first bracket assembly 523 and at least a portion of the second bracket assembly 524 serves as a plate for supporting the hinge structure 540 . can do.
  • printed circuit board 530 may include a processor (eg, processor 120 of FIG. 1 ), memory (eg, memory 130 of FIG. 1 ), and/or an interface (eg, interface 177 of FIG. 1 ). )) can be installed.
  • the processor may include, for example, one or more of a central processing unit, an application processor, a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor.
  • Memory may include, for example, volatile memory or non-volatile memory.
  • the interface may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, and/or an audio interface.
  • the interface may, for example, electrically or physically connect the electronic device 300 to an external electronic device, and may include a USB connector, an SD card/MMC connector, or an audio connector.
  • the printed circuit board 530 is a first printed circuit board 531 disposed on the first bracket assembly 523 side and a second printed circuit board disposed on the second bracket assembly 524 side. (532).
  • the first printed circuit board 531 and the second printed circuit board 532 are formed by a foldable housing 520 , a bracket assembly, a first rear cover 581 and/or a second rear cover 582 . It can be arranged inside the space to be.
  • Components for implementing various functions of the electronic device 500 may be separately disposed on the first printed circuit board 531 and the second printed circuit board 532 .
  • a processor may be disposed on the first printed circuit board 531
  • an audio interface may be disposed on the second printed circuit board 532 .
  • a battery for supplying power to the electronic device 500 may be disposed adjacent to the printed circuit board 530 . At least a portion of the battery may be disposed substantially coplanar with the printed circuit board 530 , for example.
  • the first battery 533 may be disposed adjacent to the first printed circuit board 531
  • the second battery 534 may be disposed adjacent to the second printed circuit board 532 .
  • the battery is a device for supplying power to at least one component of the electronic device 500 , and may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the battery may be integrally disposed inside the electronic device 500 or may be disposed detachably from the electronic device 500 .
  • the hinge structure 540 may include the foldable housing 520 and/or the bracket so that the foldable housing 520 may rotate about a folding axis (eg, A-A′ in FIG. 2 ). It may be configured to support the assembly.
  • the hinge structure 540 may include a first hinge structure 541 disposed on the side of the first printed circuit board 531 and a second hinge structure 542 disposed on the side of the second printed circuit board 532 . .
  • the hinge structure 540 may be disposed between the first printed circuit board 531 and the second printed circuit board 532 .
  • the hinge structure 540 may be formed substantially integrally with the portion 525 including at least a portion of the first bracket assembly 523 and at least a portion of the second bracket assembly 524 .
  • the antenna module 570 may be disposed between the rear cover 580 and the battery.
  • the antenna module 570 may include, for example, a near field communication (NFC) antenna, a wireless charging antenna, and/or a magnetic secure transmission (MST) antenna.
  • the antenna module 570 may, for example, perform short-range communication with an external device or wirelessly transmit/receive power required for charging.
  • the antenna structure may be formed by a part of the side bezel structure and/or the bracket assembly of the foldable housing 520 or a combination thereof.
  • the back cover 580 may include a first back cover 581 and a second back cover 582 .
  • the rear cover 580 is combined with the foldable housing 520 to protect the above-described components (eg, the printed circuit board 530 , the battery, and the antenna module 570 ) disposed in the foldable housing 520 . can play a role
  • the rear cover 580 may be configured substantially integrally with the foldable housing 520 .
  • the aforementioned electronic devices eg, the electronic device 101 of FIG. 1 , the electronic devices of FIG. 2 , and the electronic devices 300 and 400 500 of FIGS. 3 to 5 )
  • the aforementioned electronic devices is applied mutatis mutandis, and thus overlapping descriptions are omitted.
  • FIG. 6A is a diagram for describing an example of a configuration of an electronic device according to various embodiments of the present disclosure; According to various embodiments, the electronic device is not limited to the configurations illustrated in FIG. 6A , and the electronic device may include more configurations than the illustrated configurations or fewer than the illustrated configurations.
  • the configurations of the electronic device 101 described in FIG. 1 and the configurations of the electronic devices 300 and 400 500 of FIGS. 3 to 5 may be included in the electronic device illustrated in FIG. 6A .
  • the communication module 190 described in FIG. 1 may be included in the electronic device 600 , and a redundant description of the communication module will be omitted.
  • 6B is a diagram for describing an example of an operation of displaying content based on coordinates of an electronic device according to various embodiments of the present disclosure
  • the electronic device 600 includes an acquisition device 610 including a sensor 611 and a camera 612 , a first processor 621 , and a mapping information acquisition module 623 , and It may include a processor 620 including a second processor 622 including a content control module 624 , a graphics processing module 625 , and a display 626 .
  • Each of the components (eg, the sensor 611 , the camera 612 , the processor 620 , and the display 626 ) included in the electronic device 610 may include at least one component.
  • the processor 620 may include two or more processors, such as a first processor 621 and a second processor 622 .
  • the camera 612 may include a single camera or may include two or more cameras.
  • information related to the electronic device 600 may be detected using the acquisition device 610 , and the detected information may be transmitted to the processor 620 .
  • the acquisition device 610 may detect information about the shape of the electronic device 600 .
  • the shape of the electronic device 600 may mean at least one of a folding angle between housings, a contact between the housings, and a bending degree of the flexible display 626 .
  • the electronic device 600 provides information about the shape of the electronic device 600 , information on a folding angle between housings included in the electronic device 600 , information indicating whether the housings are in contact, and The degree of bending of the flexible display 626 by the angle between the housings may be checked.
  • the electronic device 600 includes a gyro sensor for detecting information on the shape as the sensor 611 , and a potentiometer for detecting the folding state, an optical encoder, a magnetic encoder, and/or Alternatively, it may include a contact sensor, but is not limited thereto.
  • the sensor 611 may be provided in a portion for detecting a folding state of the electronic device 600 .
  • the electronic device 600 obtains information (eg, an electrical value) detected by the sensor 611 (eg, a Hall sensor), and obtains information (eg, an electrical value) ), information on the angle between the housings and information indicating whether the housings are in contact can be checked.
  • the electronic device 600 may include the camera 612 provided at a location for detecting information about the shape.
  • the camera 612 may be provided in one housing so that the other housings can be photographed when the plurality of housings included in the electronic device 600 are at a specific angle. Angles between the plurality of housings may be identified according to shapes of other housings identified from the image captured by the camera 612 .
  • the sensor 611 eg, a potentiometer, an optical encoder, a magnetic encoder, and/or a contact sensor
  • the description of the operation of confirming the shape of the electronic device 600 using the camera 612 may be applied to the following descriptions.
  • the shape of the electronic device 600 includes a preset mode of the electronic device 600 corresponding to at least one of an angle between housings or whether the housings are in contact with each other.
  • the electronic device 101 may identify an angle range including the folding angle from among a plurality of angle ranges.
  • the plurality of angular ranges may be angular ranges (eg, 0° to 30°, 30° to 90°, 90° to 130°, and 180°) set to distinguish the shape of the electronic device 101 .
  • the electronic device 101 may check the mode of the electronic device 600 for each identified angular range.
  • the mode is preset for each of the above-described angular ranges, a half-folded mode corresponding to 0° to 30°, and an open mode corresponding to 180°. and/or modes such as tablet mode, and closed mode when the angle between the housings is 0°.
  • the acquisition device 610 may detect information related to the location of the user of the electronic device 600 .
  • the information related to the user's location may include information related to the user's gaze and information about the user's center of gravity.
  • the information related to the location of the user may include 3D coordinates associated with the user.
  • the information related to the user's location may include information about the user's viewpoint.
  • the user's viewpoint information may include 3D coordinates of a part of the user (eg, face and/or eyes).
  • the electronic device 600 may detect information related to the user's gaze by using a camera 612 provided at a portion capable of photographing the user.
  • the electronic device 600 detects the user's face or the user's human body shape from the image of the user captured by using the camera 612, and based on the detected user's face or user's human body shape, at the user's viewpoint 3D coordinates can be obtained. For example, the electronic device 600 may calculate two-dimension (2D) coordinates of a part of the user (eg, face and/or eyes) associated with the detected user's gaze. In addition, the electronic device 600 identifies the size of the user's face or the size of the user's human body shape from the image of the user, and uses the information on the size to determine the distance between the electronic device 600 and the user ( Alternatively, depth) can be calculated.
  • 2D two-dimension
  • the electronic device 600 may obtain three-dimension (3D) coordinates for the part of the user by using the 2D coordinates and the distance associated with the part of the user (eg, face and/or eyes).
  • the electronic device 600 includes a plurality of cameras, and the distance may be calculated using each of the images of the user captured by the plurality of cameras.
  • the electronic device 600 may calculate the distance to the user using the sensor 611 including a time of flight (TOF) sensor. .
  • TOF time of flight
  • Modules included in the processor 620 may be implemented in electronic form, such as instructions, computer code, program, or process for causing the processor 620 to perform at least one operation. For example, when the module is executed, the module may cause the electronic device 600 (eg, the processor 620 ) to perform at least one operation associated with the module. Since the processor 620 is an example of the processor 120 described in FIG. 1 , the following description of the processor 620 is applied to the processor 120 .
  • the first processor 621 uses the acquisition device 610 to obtain information on the shape of the electronic device 101 (eg, a folding angle and/or an angular range including the folding angle); Information related to the user's gaze (eg, user's viewpoint information) may be acquired.
  • the first processor 621 identifies a change in the shape of the electronic device 101 based on the obtained information on the shape, or identifies a change in the user's gaze based on the obtained information related to the user's gaze can do.
  • the first processor 621 may execute and/or drive at least one application.
  • the content may include various types of content such as images, videos, texts, and 3D objects (eg, AR/VR objects).
  • the content may be displayed on the screen of the electronic device 101 .
  • the screen may be a visual layout for displaying content.
  • the screen may include an execution screen displayed according to the execution and/or driving of at least one application.
  • the electronic device 600 acquires video data according to execution and/or driving of a first application (eg, a video playback application), and based on the video data, the first application including an image as the content. You can display the execution screen of the application.
  • a first application eg, a video playback application
  • the electronic device 600 acquires image data according to the execution and/or driving of a second application (eg, a gallery application), and displays the content on the execution screen of the second application based on the image data.
  • image can be displayed as
  • the electronic device 600 obtains a file (eg, an HTML file) for displaying a web page according to the execution and/or driving of a third application (eg, a web application), and based on the file, A web page including at least one of an image, an image, and a text may be displayed as the content on the execution screen of the third application.
  • the electronic device 600 eg, the first processor 621
  • the information on the content includes information on a position (eg, coordinates) at which parts (eg, pixels) of the content 650 are to be displayed and each position. It may include information about the color displayed in the .
  • the position (eg, coordinates) at which the content is displayed may mean a position (eg, coordinates) on the above-described screen (eg, the execution screen).
  • the second processor 622 to be described later transmits information about the content to the graphic processing module 625, and the graphic processing module 625 provides information on the coordinates at which the content is to be displayed and the coordinates displayed at the coordinates.
  • the graphic processing module 625 includes components (eg, a backlight unit) included in the backlight unit of the display 626 to display a color for each coordinate (eg, pixels); Alternatively, an organic light emitting diode (OLED) may control (eg, provide a voltage value or a current value to components) to output light.
  • the graphic processing module 625 is a display driver integrated circuit (IC) may include
  • the first processor 621 may include a central processing unit (CPU).
  • CPU central processing unit
  • the second processor 622 may acquire mapping information for transforming information on content.
  • the mapping information may include information for transforming the content so that the content displayed on the electronic device 101 is viewed by the user on a virtual plane (or to compensate for the distorted content being viewed). .
  • the mapping information may include a homography value to be described later.
  • the second processor 622 eg, the mapping information obtaining module 623
  • the second processor 622 is configured to obtain information about the shape of the electronic device identified by the obtaining device 610 and/or information related to the user's gaze to the first processor 621 . ) and/or obtained from the memory 630 , and mapping information may be obtained based on the obtained information.
  • the second processor 622 may store the obtained mapping information in a memory.
  • the second processor 622 eg, the content control module 624
  • the second processor 622 may control content information.
  • the second processor 622 may process the information on the content according to the request of the first processor 621 (or the provision of information on the content of the first processor 621).
  • the first processor 621 transmits the content to the second processor 622 . You may request the processing of your information.
  • the second processor 622 may include information about content (eg, coordinates at which content is to be displayed) obtained by the first processor 621 according to the execution and/or driving of an application based on the mapping information.
  • the transformation of the content may mean transformation of a visual characteristic in which the content is displayed.
  • the deformation of the content may include a change in a shape in which the content is displayed, a change in a position in which the content is displayed, and a change in the color of the content.
  • the content transformation means that the content (eg, a content file) stored in the memory 630 of the electronic device 101 does not change, but the visual characteristic (eg, shape) in which the content is displayed is transformed.
  • the content control module 624 obtains information on coordinates at which parts of the content (eg, pixels) are displayed based on the mapping information, and sets the coordinates at which parts of the content are displayed to other coordinates. may be adjusted and/or changed with An embodiment of the operation of transforming the content of the second processor 622 will be described later.
  • the second processor 622 may transmit information about the adjusted and/or changed content to the graphic processing module 625 .
  • the second processor 622 may be configured to output a buffer memory (not shown) electrically and/or operatively coupled to the graphics processing module 625 (eg, a display 626 ) for outputting a buffer memory (buffer memory).
  • the graphic processing module 625 may obtain information on the changed and/or adjusted content from the buffer memory. Also, for example, when the second processor 622 does not require modification of the information on the content (eg, when information on the shape and/or information related to the user's gaze is not changed, or the content If the event condition for transformation is not satisfied), information on the content may be transmitted to the graphic processing module 625 without transforming the information on the content.
  • the second processor 622 may obtain information for displaying a color for background processing.
  • the second processor 622 may obtain information about a color for displaying at least one color in an area different from an area in which the transformed content is displayed on the screen (eg, an execution screen).
  • the second processor 622 transmits information about the changed coordinates and information about a color for displaying at least one color to the graphic processing module 625, and the graphic processing module 625 sends information about the changed coordinates It is possible to control to display modified content and at least one color based on .
  • An operation of transforming and/or displaying content of the electronic device 600 by the content control module 624 and an operation of displaying at least one color will be further described below.
  • the second processor 622 may include a graphic processing unit (GPU).
  • GPU graphic processing unit
  • the graphic processing module 625 performs the display 626 based on the obtained information (eg, information on content, information on adjusted and/or changed content, and image data for background processing). operable to display content and/or at least one color.
  • the graphic processing module 625 is included in the display 626 based on information (eg, coordinate information and color information) about parts (eg, pixels) of the content. It is possible to control (eg, provide a voltage value or a current value to the components) configured components (eg, a backlight unit, or an organic light emitting diode (OLED)) to output light.
  • OLED organic light emitting diode
  • the graphic processing module 625 is at least some of the components of the display 626 corresponding to the information on the positions of pixels of the content, and a voltage value corresponding to the information about the color (eg, for displaying the color).
  • a current value may be transmitted.
  • Components eg, a backlight unit or an organic light emitting diode (OLED) included in the display 626 emit light based on the voltage value or the current value. output, and accordingly, content corresponding to the information on the content may be displayed on the display 626.
  • each position of parts (eg, pixels) of content on the screen of the display 626 A color may be displayed (eg, by coordinates)
  • the graphic processing module 625 may include a driving driver integrated circuit (DDI).
  • DPI driving driver integrated circuit
  • the display 626 may display content and/or at least one color according to the control of the graphic processing module.
  • the display 626 may include the above-described flexible display.
  • the display 626 is a display including hardware components for display (eg, components such as a color filter, a backlight unit, a liquid crystal layer, and an organic light emitting diode (OLED)). It may include a panel.
  • the electronic device 600 may further include a buffer memory (not shown) for outputting the display 626 .
  • the buffer memory may mean a memory for temporarily storing graphic data to be displayed through the display 626 .
  • the buffer memory may store information on the content adjusted and/or changed by the second processor 622 (eg, the content control module 624 ).
  • the graphic processing module 625 may control the display 626 so that the display 626 displays the modified content as described above based on the information about the adjusted and/or changed content stored in the buffer memory. have.
  • the buffer memory may be electrically and/or operatively connected to the second processor 622 , the graphic processing module 625 , and the display 626 .
  • the buffer memory may be included in the electronic device 600 as a separate hardware configuration or may be included in a partial area of the memory 630 .
  • the memory 630 may store content information and mapping information. Also, for example, as will be described later, the memory 630 may store mapping information calculated in advance corresponding to each of at least one of information about the shape of the electronic device 101 or information related to a user's gaze.
  • the content control module 624 may acquire mapping information previously stored in the memory 630 without acquiring real-time mapping information by the mapping information acquisition module 623 , and may change and/or adjust information about the content. As described above, information on content changed and/or adjusted based on the mapping information may be stored in a buffer memory (not shown). Meanwhile, the processor 620 and modules included in the above-described electronic device 101 are not limited thereto and may be included in various configurations.
  • the first processor 621 is implemented to perform the same function as the second processor 622 described above, or the second processor 622 is implemented to perform the function of the first processor 621 described above.
  • the mapping information obtaining module 623 and the content control module 624 included in the second processor 622 may be included in the first processor 621 .
  • the first processor 621 calculates mapping information, changes and/or adjusts information on content based on the calculated mapping information, and transfers information on the adjusted content to the graphic processing module 625 . can transmit
  • the electronic device 101 has a shape (eg, an angle between housings) of the electronic device 101 (eg, 600) and a user's gaze of the electronic device 101 (eg, 600).
  • the content may be transformed and displayed based on information (eg, 3D coordinates) associated with the .
  • the deformed and displayed content is viewed on one plane by the user, so that the content is distorted according to a change in the shape of the electronic device 101 (eg, 600 ) and the position of the user's gaze of the electronic device 101 (eg, 600 ). What appears to be a phenomenon can be resolved.
  • FIG. 7 is a flowchart 700 for explaining an example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 7 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 7 or at least one fewer operations may be performed. Hereinafter, FIG. 7 will be described with reference to FIGS. 8 to 9 .
  • FIG. 8 is a diagram for describing an example of an operation of identifying information related to a gaze of a user of an electronic device and information related to a shape of the electronic device according to various embodiments of the present disclosure
  • 9 is a diagram for describing an example of an operation of transforming content of an electronic device according to various embodiments of the present disclosure
  • the electronic device 101 may display the first content 811 based on the first form being identified in operation 701 .
  • the electronic device 101 performs the first operation in a state where the angle between the first housing 812 and the second housing 813 is a first angle (eg, 180°). 1 content 811 may be displayed.
  • the electronic device 101 acquires image data from a memory (eg, the memory 630 of FIG. 6 ) according to execution and/or driving of a first application (eg, a gallery application), and obtains the acquired image Based on the data, an execution screen of the first application including an image as content may be displayed. Since the operation of displaying the content of the electronic device 101 may be performed as described above with reference to FIGS. 6A to 6B (eg, operation of the display module), a redundant description will be omitted.
  • the electronic device 101 may identify the shape of the electronic device 101 based on information detected from the acquisition device 610 .
  • the first housing 812 and the second housing 813 included in the electronic device 101 may be rotated by a user about the hinge as a central axis. According to the user's control, when the angle between the first housing 812 and the second housing 813 becomes the first angle, the electronic device 101 performs the acquisition device 610 (eg, at least one sensor 611 ). )), the first information can be obtained.
  • the electronic device 101 may confirm that the shape of the electronic device 101 is a first shape (eg, a folding angle between the housings is a first angle (eg, 180°)) based on the obtained first information . Or, without being limited thereto, confirming that the first shape is the mode of the electronic device 101 set to correspond to the case where the angle between the first housing 812 and the second housing 813 is the first angle It could mean checking For example, the electronic device 101 identifies that the identified folding angle (eg, a first angle) corresponds to a first angle range (eg, 180°), and the electronic device 101 corresponding to the first angle range ) can be identified (eg, open mode).
  • a first shape eg, a folding angle between the housings is a first angle (eg, 180°)
  • the electronic device 101 corresponding to the first angle range can be identified (eg, open mode).
  • the electronic device 101 identifies information by using the acquisition device in operation 703 , and in operation 705 the type and/or user of the electronic device 101 . You can see the change in gaze. For example, as the first housing 812 and the second housing 813 of the electronic device 101 are rotated around the hinge by the user as shown in 801 to 802 of FIG. 8 , the electronic device 101 ), the folding angle between the first housing 812 and the second housing 813 may be changed from the first angle to the second angle (a, for example, 140°).
  • the electronic device 101 is the acquisition device 610 (eg, at least one sensor 611) when the folding angle between the first housing 812 and the second housing 813 is the second angle a. ), the second information (eg, electrical value) can be obtained. Based on the obtained second information, the electronic device 101 determines that the shape of the electronic device 101 has a second shape (eg, the angle between the first housing 812 and the second housing 813 is the second angle a )) can be confirmed. In addition, the electronic device 101 identifies that the identified folding angle corresponds to the second angle range (eg, 130° to 180°), and a mode (eg: half-folded mode) can be identified.
  • the second angle range eg, 130° to 180°
  • a mode eg: half-folded mode
  • the electronic device 101 uses the camera 612 to provide the user's viewpoint information (eg, : 3D coordinates of a part of the user) can be checked.
  • the electronic device 101 may check whether the user's gaze is changed by checking the change of the user's viewpoint information.
  • the electronic device 101 (eg, the at least one processor 620 ) checks in operation 705 when a change in the shape of the electronic device 101 and/or a change in the user's gaze is confirmed.
  • Operations 707 to 711 described above may be performed.
  • an example of the operation of the electronic device 101 when a change in the shape of the electronic device 101 is confirmed will be described.
  • the operations of the electronic device 101 described below may also be applied mutatis mutandis to the operations of the electronic device 101 when a change in the user's gaze is confirmed. Examples of operations of the electronic device 101 when a change in the user's gaze is confirmed will be described later with reference to FIGS. 16 and 17A to 17C .
  • the electronic device 101 may identify viewpoint information of the user of the electronic device 101 in operation 707 .
  • the electronic device 101 photographs the user using at least one camera in a state where the folding angle between the electronic devices 101 is the second angle (a)
  • Information eg, three-dimensional coordinates related to the photographed user's gaze may be acquired.
  • the electronic device 101 calculates two-dimensional coordinates according to the location of the user's face from the captured image related to the user, and a distance (or depth (or depth) between the electronic device 101 and the user according to the size of the user's face. depth)) can be calculated.
  • the electronic device 101 may obtain 3D coordinates associated with the user's gaze by using the calculated 2D coordinates and the calculated distance.
  • the operation of acquiring coordinate information related to the user's gaze of the electronic device 101 may be performed as described above with reference to FIGS. 6A to 6B (eg, operation of the electronic device 101 using the acquisition device). A duplicate description will be omitted.
  • the electronic device 101 (eg, the at least one processor 620 ) performs information acquired by the at least one sensor 611 in operation 709 (eg, the second angle a, which is a folding angle). 2 ) and the user's viewpoint information, the first content 811 may be deformed to display the deformed first content 911 on the first area.
  • the angle between the first housing 812 and the second housing 813 during display of the first content 811 of the electronic device 101 is determined from the first angle to the second angle (a).
  • the first content 811 displayed on the display of the electronic device 101 may be distorted and viewed 821 by the user.
  • the shape of the electronic device 101 eg, the angle between the first housing 812 and the second housing 813
  • the shape of the first content 811 is changed by the user to the first shape. (eg, a rectangle)
  • the shape of the first content 811 may be distorted into a second shape (eg, a rhombus) by the user and viewed 821 .
  • the angle between the housings is 180°
  • the content is displayed on the same plane formed by the surface of the first housing 812 and the surface of the second housing 813 , and the angle between the housings
  • angle a another angle
  • a portion of the content is displayed on a plane corresponding to the first housing 812 and a plane corresponding to the second housing 813, which are not on the same plane, respectively.
  • the electronic device 101 may deform and display the first content 811 so that the first content 811 can be viewed on the same plane.
  • the first content 811 is deformed and displayed based on predetermined information (eg, mapping information 841 to be described later)
  • the first content 811 is displayed on the same plane by the user.
  • An optical illusion effect recognized as being can be generated (905).
  • an operation of obtaining the mapping information 841 for content transformation of the electronic device 101 and displaying the transformed content will be described.
  • the electronic device 101 may acquire mapping information 841 for content transformation.
  • the electronic device 101 eg, the mapping information acquisition module 623
  • provides information 832 eg: Based on the information about the angle between the housings
  • mapping information 841 eg, a homography value H
  • the mapping information 841 may be a homography value (H) for mapping coordinates on one plane to coordinates on another plane.
  • the mapping information 841 includes planes on which the first content 811 is currently displayed (eg, a surface of the display corresponding to the first housing 812 and a surface of the display corresponding to the second housing 813 ).
  • the mapping information 841 may be information related to a virtual surface on which the first content 811 is to be viewed.
  • the electronic device 101 provides a homography value based on information on a virtual plane 913 on which the first content is to be viewed and information 831 associated with the user's gaze. (H) can be calculated.
  • the homography value H may be a value associated with one virtual plane 913 .
  • the electronic device 101 may determine a virtual plane 913 on which the content is to be viewed (or to which the content is mapped) based on the information about the shape and information related to the user's gaze.
  • the electronic device 101 is a homography value (H) for changing the information 910 (eg, coordinates associated with the user's gaze) about the user's gaze to a point 912 perpendicular to the determined one plane 913 .
  • H a homography value
  • the homography value H may be calculated by the electronic device 101 using a specified equation. Various embodiments of the operation of calculating the homography value H using the specified equation of the electronic device 101 will be described later with reference to FIGS. 10 to 13 .
  • the electronic device 101 may display the transformed content by transforming the content.
  • the electronic device 101 may transform the content by using the mapping information 841 (eg, the homography value H) and display the transformed content.
  • the electronic device 101 changes (or adjusts) the information on the first content 811 displayed in the first shape (eg, the angle between the housings is 180°) into the mapping information 841 . )can do.
  • the mapping information 841 eg, the homography value H
  • the electronic device 101 provides mapping information 841 to coordinates (eg, first coordinates 921) of some parts (eg, pixels) of the first content 811 By reflecting , coordinates (eg, second coordinates 922) of the changed portions (eg, pixels) of the first content 911 may be acquired.
  • the electronic device 101 reflects the mapping information 841 to the first coordinates (x,y) 921 at which one pixel of the first content 811 is to be displayed, so that the second coordinates (x', y') 922 may be calculated (eg, a matrix operation of a homography matrix value to be described later on a matrix value of the first coordinate).
  • the electronic device 101 provides coordinates (eg, (0,0), (0,y_max), (x_max,y_max), and (x_max,0) of pixels located on the outline of the first content 811 . )) by reflecting the mapping information 841 , coordinates for pixels included in the transformed content 911 may be calculated.
  • the electronic device 101 may calculate the coordinates of the other pixels as other coordinates, similar to the operation of calculating the coordinates of one pixel as other coordinates.
  • the electronic device 101 provides color information (eg, a color value, a saturation value, and a brightness value, or a color such as HSV or RGB) on the parts (eg, pixels) of the transformed first content 911 . information about values in space) can be identified.
  • the electronic device 101 may identify color information for pixels of the first content 811 before transformation as information about colors for pixels of the first content 911 after transformation. have. Also, for example, the electronic device 101 provides an empty pixel (eg, color When a pixel for which information is not set, or a pixel with coordinates where pixels of the changed coordinates of the first content 811 are not located) are identified (eg, when the area of the content increases), the color of parts of the content Information on color in empty content (eg, empty pixel) can be identified by interpolating the information about the color.
  • an empty pixel eg, color When a pixel for which information is not set, or a pixel with coordinates where pixels of the changed coordinates of the first content 811 are not located
  • the color of parts of the content Information on color in empty content eg, empty pixel
  • the positions (eg, coordinates) of a portion (eg, pixels) of the content (eg, pixels) transformed based on the mapping information 841 are identical (or overlapped) (eg, the content is reduced)
  • identify information about the color of a specific location based on information about the color of parts (eg, pixels) of content with the same position eg, obtain an average value of information about color)
  • the operation of identifying information about the color of the transformed content 911 includes an elliptical weighted average (EWA) and The same interpolation method can be used.
  • EWA elliptical weighted average
  • the shape of the electronic device 101 is the second shape (eg, the angle between the first housing 812 and the second housing 813 is the second angle a).
  • the first content 911 transformed on the display based on the changed information on the first content eg, information on the second coordinates 922 and information on the color of the second coordinates 922).
  • the first modified content 911 may be displayed in a first area of a display (or screen), and the display (or screen) may include a remaining area (second area) different from the first area. have.
  • the modified first content 911 is displayed on the electronic device 101 in a second form (eg, the angle between the first housing 812 and the second housing 813 is the second angle (a)) It may be recognized by the user as being displayed on the same virtual plane when it is displayed. Accordingly, a phenomenon in which the first content 811 is viewed and is distorted can be resolved. In addition, when the first content 811 includes a 3D graphic object (eg, augmented reality content), it may be recognized as a hologram by the user. Since the operation of displaying the modified first content 911 of the electronic device 101 may be performed as described above with reference to FIGS. 6A to 6B , a redundant description will be omitted.
  • a 3D graphic object eg, augmented reality content
  • the electronic device 101 may display a portion of the deformed first content 911 by cropping it.
  • the electronic device 101 transforms the first content 811
  • the coordinates of a portion of the transformed first content 911 may be located outside the display (or screen).
  • the electronic device 101 may crop a part of the deformed first content 911 .
  • a portion of the cropped first content 911 may not be processed by the graphic processing module 625 .
  • the deformed first content is displayed, a portion of the first content 811 positioned outside may not be displayed on the display (or screen).
  • the above-described cropping operation may be interpreted as including an operation for controlling information (eg, coordinate information) on a part of displayed content not to be processed.
  • the electronic device 101 performs at least one color (eg, at least one color set for background processing in a second region 931 different from the first region in operation 711 ).
  • a color associated with the bezel of the electronic device 101 to be described later) may be displayed.
  • An area a1 of may be smaller than an area a2 of at least a portion of the first content 811 (eg, an upper region of the first content 811 or pixels in an uppermost column) before transformation.
  • the virtual upper region of the first content 811 is determined.
  • the shape of the first content 811 may be deformed so that the area of the upper end of the first content 811 becomes smaller as it is mapped to the plane of .
  • the first A portion of the first content 811 eg, a portion corresponding to the second region 931 may not be displayed on the display (eg, 626) (or the screen) by the portion in which the area of the content 811 is reduced. have. As shown in 904 of FIG.
  • the electronic device 101 displays at least one color for background processing in the second area 931 while displaying the first content 811 in the first area of the display.
  • the background processing means that a visual element different from the content is displayed in the remaining second area 931 where the first content 811 is displayed so that visual immersion in the first area where the content is displayed is improved. can do.
  • the electronic device 101 transforms the image acquired by the first application (eg, the gallery application) on the first area of the execution screen of the first application to display the transformed image, At least one color for background processing may be displayed on the second area 931 of the execution screen.
  • the first content 811 may be deformed so that a partial area a1 of the deformed first content 911 is larger than an area a2 of the first content 811 before being deformed.
  • the angle between the housings 812 and 813 of the electronic device 101 is increased (eg, changed from 130° to 180°)
  • the area of the upper end of the first content 811 is The first content 811 may be deformed to become larger.
  • the area of the second region 931 in which at least one color for the background processing is displayed may be reduced.
  • various embodiments of an operation for displaying at least one color on the second area 931 of the electronic device 101 will be further described.
  • the electronic device 101 compares the first content 811 with the modified first content 911 to display at least one color.
  • 2 areas 931 may be identified.
  • the electronic device 101 determines the shape a2 of the deformed first content 911 and the first content 811 after the first content 811 is deformed.
  • the second region 931 may be identified.
  • the electronic device 101 provides information on the coordinates of the outline of the first content 811 before the first content 811 is deformed and the first content 811 deformed after the first content 811 is deformed ( 911) can be compared with the coordinates of the outline.
  • the electronic device 101 Based on the comparison result, the electronic device 101 identifies information about the coordinates of the area outside the coordinates of the outline of the first content 911 that is transformed as shown in 904 of FIG. 9 , and the outside area can be identified as the second area 931 .
  • the electronic device 101 may display at least one color for background processing on the identified second area 931 . Also, for example, when the electronic device 101 displays a color for background processing and the position (eg, coordinates) of a part of the transformed first content 911 is located outside the display (or screen) A part of the modified first content 911 may be cropped. A portion of the cropped and modified first content 911 may not be displayed on a display (or screen).
  • an operation of setting at least one color to be displayed on the second area 931 of the electronic device 101 will be further described.
  • the electronic device 101 may set at least one color for background processing based on various information.
  • the electronic device 101 sets a color of a component (eg, a bezel) included in the electronic device 101 as at least one color for the background processing.
  • the electronic device 101 eg, at least one processor 620 ) pre-stores colors for components included in the electronic device 101 and stores the pre-stored colors (eg, at least one color for background processing).
  • Bezel color For example, the electronic device 101 may include a first bezel formed on the first housing 812 and a second bezel formed on the second housing 813 . When the user gazes at the flexible display, the first bezel and the second bezel may be recognized by the user in a peripheral area of the content.
  • the electronic device 101 displays on the second area 931 at least one of the color of the first bezel and the color of the second bezel included in the electronic device 101 as shown in 904 of FIG. 9 .
  • an optical illusion effect on the deformed content displayed in the first region may be improved. Since the color of the bezels and the color of the second area 931 are recognized as the same color, the user's visual immersion in the content displayed in the first area may be improved.
  • the electronic device 101 may set at least one color for background processing based on colors for components included in the identified electronic device 101 . As an example, the electronic device 101 may identify a color similar to a color for components as a color for background processing.
  • the similar color may include a color having values within a specified range from values associated with the identified color (eg, a color value, a saturation value, and a lightness value, or values in a color space such as HSV, RGB).
  • the electronic device 101 provides various types of patterns, such as a gradation pattern based on the color of the components, and a pattern in which a designated pattern (eg, dots) having a color for the components is continuous.
  • a type of pattern may be acquired, and the acquired pattern may be displayed for background processing of the second region 931 .
  • the electronic device 101 may set a color associated with the content as at least one color for the background processing.
  • the electronic device 101 may identify the color of the first content 811 and identify a color different from the identified color among a plurality of colors as at least one color for background processing.
  • the different color may be a color that is complementary to the identified color.
  • the electronic device 101 provides values associated with the plurality of colors (eg, a brightness value, a saturation value, and a color value, or values of a color space such as HSV and RGB).
  • the electronic device 101 may calculate an average value of , and identify a color different from a color corresponding to the calculated average value as at least one color for background processing.
  • the electronic device 101 may identify the color of the first content 811 and identify a color identical to or similar to the identified color among a plurality of colors as at least one color for background processing.
  • the electronic device 101 eg, at least one processor 620 ) does not perform an operation of transforming the first content 811 and displaying at least one color in real time, but information stored in advance (eg: The first content 911 and at least one color modified based on the pre-stored homography value (H)) may be displayed.
  • information stored in advance eg: The first content 911 and at least one color modified based on the pre-stored homography value (H)
  • the electronic device 101 may identify various types of surfaces other than a plane as a virtual surface for allowing content to be viewed.
  • the various types of faces may include polyhedral faces such as triangular prisms, cylindrical faces, and spherical faces.
  • an operation of transforming content by the electronic device 101 so that the content is viewed on a virtual plane will be described as an example of an operation of transforming content, unless otherwise noted.
  • the electronic device 101 obtains mapping information for transformation of the first content based on information about the shape of the electronic device 101 (eg, 600) and information related to the user's gaze. can be calculated For example, the electronic device 101 (eg, 600 ) obtains a value for calculating mapping information based on information about the shape of the electronic device and information related to a user's gaze, and calculates the mapping information using the obtained value. Mapping information may be identified by substituting it into a predetermined formula for
  • FIG. 10 is a flowchart 1000 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 10 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than the operations illustrated in FIG. 10 or at least one fewer operations may be performed. Hereinafter, FIG. 10 will be described with reference to FIGS. 11 to 13 .
  • 11 is a diagram for describing an example of an operation for calculating mapping information of an electronic device according to various embodiments of the present disclosure
  • 12 is a diagram for describing an example of an operation of obtaining a value for calculating mapping information of an electronic device according to various embodiments of the present disclosure
  • 13 is a diagram for describing an example of an operation of calculating mapping information using an obtained value and a specified equation of an electronic device according to various embodiments of the present disclosure
  • the electronic device 101 may identify information about the shape in operation 1001 .
  • the electronic device 101 receives the first information from the at least one sensor 611 , and a shape of the electronic device 101 (eg, a folding angle between the first housing 812 and the second housing 813 is the first angle) may be identified based on the obtained first information.
  • the electronic device 101 identifies that the identified folding angle corresponds to a first angle range (eg, 130° to 180°), and a mode (eg, open) of the electronic device 101 corresponding to the first angle range. mode) can be identified.
  • Operations 1001 of the electronic device 101 may be performed identically or similarly to operations 701 to 705 of the above-described electronic device 101 , and thus a redundant description will be omitted.
  • the electronic device 101 may identify information acquired by the acquiring device 610 in operation 1003 .
  • the electronic device 101 captures a user by using at least one camera 612 , and captures the user's viewpoint information (eg, 3D coordinates of a part of the user (eg, face and/or eyes)). ) can be obtained. Since operation 1003 of the electronic device 101 may be performed identically or similarly to operation 707 of the above-described electronic device 101, a redundant description will be omitted.
  • the electronic device 101 (eg, the at least one processor 620 ) performs a virtual virtual content mapping operation based on at least one of information about a shape or information related to a user's gaze in operation 1005 . plane can be determined.
  • the mapping information obtaining module 623 may include the obtained electronic device 101 in the form (eg, the first housing 812 and the second An imaginary plane for mapping the first content based on information 831 (eg, an angle between the two housings 813 , which is the first angle) and information 832 (eg, three-dimensional coordinates) associated with the user's gaze can be decided
  • information 831 eg, an angle between the two housings 813 , which is the first angle
  • information 832 eg, three-dimensional coordinates associated with the user's gaze
  • the electronic device 101 uses a virtual plane perpendicular to or close to the user's gaze direction to allow the first content to be viewed (or second 1 It can be determined as a virtual plane for mapping content.
  • the user's gaze direction may refer to a direction from a coordinate associated with the user's gaze identified in a three-dimensional coordinate system (eg, a world coordinate system) to a specific point associated with the electronic device 101 .
  • the specific point may be a central point 1221 of the electronic device 101 as shown in 1202 of FIG. 12 .
  • the present invention is not limited thereto, and the specific point may be variously set based on the shape of the electronic device 101 and coordinates associated with the user's gaze.
  • the electronic device 101 identifies the coordinates (x, y, z) of the central point 1221 of the electronic device 101 in a three-dimensional coordinate system (eg, a world coordinate system), and the identified coordinates of the central point 1221 .
  • Information eg, a three-dimensional vector, or a three-dimensional matrix
  • the coordinates (x, y, z) of the central point 1221 have the position of the camera 612 as the origin (0, 0, 0) and information 831 about the shape of the electronic device 101 (eg, the housing). It can be calculated using information about the angle (a) between them.
  • the electronic device 101 sets the position of the camera 612 as the origin (0, 0, 0) between the housings. It may be calculated by further using the angle a and the coordinates of the end point of the second housing 813 photographed by the camera 612 provided in the first housing 812 . A description of the general calculation for calculating the coordinates will be omitted. Hereinafter, examples of an operation of determining a virtual plane perpendicular to the gaze direction of the electronic device 101 will be described.
  • the electronic device 101 may display a plurality of virtual planes (eg, information about an angle between housings) based on information 831 on a shape (eg, information on an angle between housings).
  • Example: 1222 and 1223) may be identified, and one virtual plane for content viewing may be selected from among a plurality of virtual planes based on information indicating the user's gaze direction.
  • the electronic device 101 includes a virtual first plane 1223 corresponding to the first housing 812 and a virtual virtual plane corresponding to the second housing 813 as shown in 1201 to 1202 of FIG. 12 .
  • a second plane 1222 can be identified.
  • the electronic device 101 Based on the coordinates 1211 associated with the user's gaze, the electronic device 101 sets the angle between the first plane 1223 and the second plane 1222 with the user's gaze closer to the vertical plane (eg, 1222 ). can be identified.
  • the electronic device 101 uses a specified point (eg, the position of the camera 612 ) as a zero point in the three-dimensional coordinate system, and provides information (eg, a first virtual plane 1223 corresponding to the first housing 812 ). : Information on three-dimensional coordinates, information on three-dimensional vectors) and information on a second virtual plane 1222 corresponding to the second housing 813 may be identified.
  • the electronic device 101 compares the information on the first plane 1223 and the information on the second plane 1222 with the coordinates 1211 associated with the user's gaze, and is perpendicular to the user's gaze based on the comparison result.
  • a plane closer to . may be determined as a virtual plane.
  • the electronic device 101 provides a direction (hereinafter, referred to as a user information (eg, a vector matrix) can be compared.
  • the electronic device may identify a plane (eg, 1222 ) in which an angle formed between the virtual plane and the user's gaze direction is closer to the vertical based on the comparison result.
  • the deformation of the content mapped onto the determined virtual plane is reduced, so that it is possible to provide the user with content with little deformation.
  • the first virtual plane Since the degree of compensation for the point 1224 perpendicular to 1221 is small, the degree of deformation of the first content may be reduced by mapping information (eg, homography value H) obtained based thereon.
  • the various electronic devices 101 provide information 831 about the shape of the electronic device 101 . Based on the plurality of virtual planes may be identified.
  • the electronic device 101 may determine a virtual plane perpendicular to the user's gaze direction based on the information indicating the user's gaze direction.
  • the electronic device 101 (eg, at least one processor 620 ) connects the coordinates of the end points of each housing based on the information 831 on the shape of the electronic device 101 .
  • a virtual plane may be determined.
  • the electronic device 101 may calculate mapping information based on information related to a user's gaze and information about a virtual plane. For example, the electronic device 101 identifies at least one value for calculating mapping information using the information 832 associated with the user's gaze and information on the virtual plane, and uses the identified value as the mapping information. You can check the mapping information by substituting it into a specified formula for calculation.
  • an operation of identifying at least one value for calculating a specified equation and mapping information of the electronic device 101 will be described.
  • the electronic device 101 may calculate the homography value H as mapping information using the specified [Equation 1].
  • the homography value H may be a value for representing a relationship between planes for mapping coordinates on one plane to coordinates on another plane (eg, a virtual plane).
  • the homography value H may be used as a value for transforming content so that the content is viewed on a virtual plane.
  • the homography value (H) is a K matrix representing an intrinsic parameter of the camera 612 model for projecting points in a three-dimensional space to a two-dimensional plane and a three-dimensional space
  • [Equation 1] below may be an expression implemented in advance to calculate the homography value (H) by using the definition of the homography value (H).
  • the values of the K matrix calculated in [Equation 1] for calculating the homography value H may be predetermined values.
  • the electronic device 101 converts the transformation matrix ( For example, in order to calculate the values of the Tab matrix), information about the determined virtual plane (eg, 1222 ) and coordinates associated with the user's gaze may be used. Referring to Equation 3 below, the electronic device 101 translates in the direction of a specific point (eg, the central point of the electronic device 101) in order to calculate values of the transformation matrix (eg, Tab matrix).
  • a specific point eg, the central point of the electronic device 101
  • a movement matrix d and a matrix R representing rotation in each axis direction can be identified.
  • the electronic device 101 may include a second housing 813 as shown in 1203 of FIG. 12 .
  • the second virtual plane 1222 corresponding to is determined, coordinates (x, y, z) for a specific point (eg, the central point 1221 of the electronic device 101) and coordinates associated with the user's gaze (1211) can be compared to identify the translation matrix d.
  • the electronic device 101 subtracts the coordinates 1211 associated with the user's gaze from the coordinates 1222 for a specific point (eg, the central point of the electronic device 101).
  • a value of a T1 matrix and a value of a T3 matrix can be identified as the translation matrix d.
  • the electronic device 101 eg, a translation/rotation calculation module included in the mapping information obtaining module 623 of FIG. 11
  • the electronic device 101 includes information on the second plane 1222 and the information on the second plane 1222 as shown in 1203 of FIG. 12 .
  • information on the user's gaze direction 1231 eg, a vector or matrix from the coordinates 1211 associated with the user's gaze to the coordinate direction of the central point 1221 .
  • the electronic device 101 moves to a point perpendicular to a virtual plane (eg, 1222 ) using ⁇ (yaw value), ⁇ (pitch value), and ⁇ (roll value).
  • ⁇ (yaw value), ⁇ (pitch value) and ⁇ (roll value) for can do.
  • the electronic device 101 eg, the at least one processor 620
  • the electronic device 101 is associated with the gaze for calculation of a specified equation (eg, [Equation 1]) for calculating the homography value H.
  • a specified equation eg, [Equation 1]
  • a second value eg, the value of the rotational movement matrix R identified as .
  • the electronic device 101 may identify mapping information for mapping in operation 1009 .
  • the H operation module 1103 may be configured to calculate a first value (eg, a value of a matrix T1 and a matrix T2) identified based on the information 832 associated with the gaze and information about the virtual plane and the coordinates associated with the gaze
  • a homography value (H) is obtained by obtaining a second value (for example, the value of the rotation movement matrix R) identified as can be identified.
  • the electronic device 101 (eg, the at least one processor 620 ) performs operations 1001 to 1005 for each of a plurality of angles between the first housing 812 and the second housing 813 . It is possible to store the mapping information calculated by performing in the memory (in: the memory 630 of FIGS. 6D and/or 11) in a form associated with the information 831 on the shape and the information 832 associated with the user's gaze. have.
  • the electronic device 101 may generate mapping information calculated when the angle between the first housing 812 and the second housing 813 is the first angle and the coordinates associated with the user's gaze are the first coordinates, Mapping information may be stored in a form associated with one angle and first coordinates.
  • the electronic device 101 includes a plurality of angles (second angle, ... , n-th angle) between the first housing 812 and the second housing 813 and a plurality of coordinates (th angle) associated with the user's gaze.
  • a predetermined lookup You can save the table.
  • the electronic device 101 calculates the mapping information when the angle between the first housing 812 and the second housing 813 among the mapping information stored in advance is the first angle and the coordinates associated with the user's gaze are the first coordinates.
  • mapping information may be identified without performing an operation for Also, without being limited thereto, the mapping information for the transformation of the content may be stored to be related to one of information about a shape or information related to a user's gaze. Accordingly, the electronic device 101 may identify mapping information corresponding to one of information about a shape or information related to a user's gaze from among previously stored mapping information.
  • the specified [Equation 1] is only an example, and the electronic device 101 uses various various equations to display the first content on a virtual plane (eg, 1222). You can check the mapping information.
  • the electronic device 101 enables content to be viewed on one of a plurality of virtual planes corresponding to a plurality of housings included in the electronic device 101 (eg, 600); Sub-content included in the content may be modified.
  • the content may include sub-contents corresponding to a plurality of housings.
  • the content includes a first sub-content displayed on an area of a display (or screen) corresponding to the first housing and a second sub-content displayed on an area of a display (or screen) corresponding to the second housing.
  • FIG. 14 is a flowchart 1400 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 14 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 14 or at least one fewer operations may be performed. Hereinafter, FIG. 14 will be described with reference to FIG. 15 .
  • 15 is a diagram for describing an example of an operation of transforming sub content included in content of an electronic device according to various embodiments of the present disclosure
  • the electronic device 101 may display the first content on the display in operation 1401 .
  • the electronic device 101 performs the first operation in a state where the angle between the first housing 812 and the second housing 813 is a first angle (eg, 180°). 1 content 811 may be displayed. Since operation 1401 of the electronic device 101 may be performed the same as or similar to operation 701 of the above-described electronic device 101, a redundant description will be omitted.
  • the electronic device 101 identifies information acquired by the acquiring device 610 in operation 1403 , and determines the form of the electronic device 101 in operation 1405 .
  • a change and/or a change in the user's gaze may be checked.
  • the electronic device 101 may include at least one sensor ( 611), information (eg, an electrical value) may be obtained, and the shape of the electronic device 101 corresponding to the obtained information may be confirmed.
  • the electronic device 101 may check whether the user's gaze is changed by checking the change of the user's viewpoint information.
  • Operations 1403 to 1405 of the electronic device 101 may be performed the same or similar to operations 703 to 705 of the electronic device 101 , and thus redundant descriptions will be omitted.
  • the electronic device 101 (eg, the at least one processor 620 ) performs the first plane 1522 in operation 1407 , based on at least one of information about a shape or information related to a user's gaze. and one of the second planes 1521 may be identified.
  • the electronic device 101 has a plurality of virtual planes (eg, the first housing 812 and the second housing 813) corresponding to the plurality of housings (eg, the first housing 812 and the second housing 813).
  • a first plane 1522 corresponding to the first housing 812 and a second plane 1521 corresponding to the second housing 813) may be identified.
  • the electronic device 101 determines a plane (eg, a plane having an angle with the user's gaze closer to vertical) based on information related to the user's gaze (eg, coordinates 1520 related to the user's gaze) among the plurality of virtual planes. 1521) can be determined. Since the operation of determining the virtual plane of the electronic device 101 may be performed the same as or similarly to the operation 1005 of the electronic device 101 described above, a redundant description will be omitted.
  • the electronic device 101 when the first plane 1522 is identified in operation 1409 , the electronic device 101 (eg, the at least one processor 620 ) based on the information on the first plane 1522 .
  • the deformed first content may be displayed by transforming the first content.
  • the electronic device 101 may deform and display sub-contents (eg, 1531 and 1532) of the content. .
  • sub-contents eg, 1531 and 1532
  • the sub content may mean portions corresponding to regions of the flexible display corresponding to the plurality of housings (eg, 812 , 813 ) of the first content 811 .
  • the flexible display may include a first sub-region corresponding to the first housing 812 and a second sub-region corresponding to the second housing 813 .
  • the first content 811 may include a first sub-content 1531 corresponding to the first sub-region and a second sub-content 1532 corresponding to the second sub-region.
  • the electronic device 101 may transform another sub content included in the content while maintaining one sub content associated with the determined virtual plane. For example, when a virtual plane (eg, 1521 ) is determined as shown in 1502 of FIG. 15 , the electronic device 101 includes a second housing 813 corresponding to the virtual plane (eg, 1521 ) or A second sub-region of the display corresponding to the second housing 813 may be identified. Then, the electronic device 101 identifies a first housing 812 or a first sub-region other than the identified second housing 813 or second sub-region, and identifies the identified first housing 812 or first sub-region. The first sub content 1531 corresponding to the region may be identified.
  • a virtual plane eg, 1521
  • a second sub-region of the display corresponding to the second housing 813 may be identified.
  • the electronic device 101 identifies a first housing 812 or a first sub-region other than the identified second housing 813 or second sub-region, and identifies the identified first housing 812 or first sub-region.
  • the electronic device 101 maintains (or does not deform) the second sub-content 1532 associated with the second plane 1521 while generating the first sub-content 1531 .
  • the electronic device 101 identifies mapping information (eg, a homography value) for allowing the first sub content 1531 to be viewed on the determined virtual second plane 1521 , and uses the identified mapping information as the first sub content Information on the first sub-content 1531 (eg, the changed coordinate value of the second sub-content) may be acquired by reflecting in the information on (1531) (eg, the coordinate value of the second sub-content).
  • mapping information eg, a homography value
  • the electronic device 101 reflects the mapping information in information (eg, coordinate values) on the first sub-content 1531 , and information on the remaining second sub-content 1532 (eg, coordinate values). may be maintained (or may not reflect mapping information).
  • the electronic device 101 displays the transformed second sub-content 1532 by using the information on the second sub-content 1532 transformed by the mapping information, and maintains information on the first sub-content 1531 . may be used to display the first sub content 1531 .
  • the first sub content 1531 is displayed in a first sub region of the display corresponding to the first housing 812
  • the modified second sub content 1532 is displayed in the display corresponding to the second housing 813 . It may be displayed in the second sub-region.
  • the electronic device 101 when the electronic device 101 modifies and displays the content, the electronic device 101 maintains the display of the second sub content 1532 (eg, continues to be displayed) while maintaining the display of the first sub content 1531 . ) can be transformed and displayed.
  • the electronic device 101 may display the deformed content while displaying a color for background processing in the remaining area 1541 in which the deformed content is not displayed.
  • the electronic device 101 when a virtual plane corresponding to one housing is determined, the electronic device 101 performs an operation of deforming and displaying only a portion of the content corresponding to the one housing, thereby transforming and displaying the entire portion of the content. Compared with the operation performed by the electronic device 101 , the operational burden of the electronic device 101 may be reduced.
  • the electronic device 101 may initiate an operation of displaying the content by transforming it.
  • the electronic device 101 eg, 600
  • FIG. 16 is a diagram for describing another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 16 are not limited to the illustrated order and may be performed in various orders. Also, according to various embodiments, more operations than those illustrated in FIG. 16 or at least one fewer operations may be performed. Hereinafter, FIG. 16 will be described with reference to FIGS. 17A to 17C .
  • 17A is a diagram for describing an example of an operation of displaying content when a shape of an electronic device is changed and a condition of the electronic device is satisfied, according to various embodiments of the present disclosure
  • 17B is a diagram for explaining an example of an operation of displaying content when a user's gaze is changed and a condition of an electronic device is satisfied, according to various embodiments of the present disclosure
  • 17A is a diagram for describing an example of an operation of displaying content when a shape of an electronic device and a user's gaze are changed according to various embodiments of the present disclosure
  • the electronic device 101 may display the first content 811 in operation 1601 .
  • the angle between the first housing 812 and the second housing 813 is the first angle as shown in 1701 of FIG. 17A, 1711 of FIG. 17B, and 1721 of FIG. 17C.
  • the first content 811 may be displayed.
  • the plane on which the content is viewed by the user and the plane on which the content is displayed by the electronic device 101 eg, an undeformed flexible display
  • the electronic device 101 identifies whether the shape of the electronic device 101 is changed in operation 1603 , and identifies whether the user's gaze is changed in operation 1605 . can do. For example, when an angle change occurs between the housings of the electronic device 101 (eg, the first housing 812 and the second housing 813 ) as shown in FIGS. 17A and/or 17C , the electronic The device 101 may obtain information from the at least one sensor 611 and identify information on the shape of the electronic device 101 corresponding to the obtained information. The electronic device 101 may identify whether the shape of the electronic device 101 is changed by comparing information on the identified shape of the electronic device 101 with information on the previously identified shape.
  • the electronic device 101 captures a user using at least one camera, and identifies coordinate information associated with the user's gaze identified from the captured image. can do.
  • the electronic device 101 may compare coordinate information related to the user's gaze with previous coordinate information to identify whether the user's gaze is changed.
  • the operation of identifying information on the shape of the electronic device 101 and the operation of identifying information related to the gaze of the user of the electronic device 101 are the same as or similar to operations 703 to 707 of the electronic device 101 described above. Since it can be performed in a simple manner, a redundant description will be omitted.
  • the shape of the electronic device 101 is changed or the gaze of the user is changed in steps 1603 to 1605 of the electronic device 101 (eg, the at least one processor 620 )
  • 1607 In the operation it may be determined whether a condition for deforming and displaying the content is satisfied.
  • the above conditions will be described.
  • the condition for transforming the content may include a condition related to the mode of the electronic device 101 .
  • the mode may be set in the electronic device 101 itself.
  • the electronic device 101 provides a user interface (eg, a quick panel) for setting a mode, and receives a user input for setting the mode on the user interface (eg, selects an item for setting a mode) )can do.
  • the electronic device 101 may set the mode of the electronic device 101 to a mode for the electronic device 101 to transform content based on the received user input.
  • the mode is not limited to the description, and may be set for each application.
  • the electronic device 101 provides a user interface for setting the mode for each of a plurality of applications executed and/or driven in the electronic device 101 , and a plurality of The mode can be set for each application.
  • the electronic device 101 may determine whether the mode related to the specific application is set.
  • the mode may mean an operation for transforming content. For example, when the electronic device 101 determines to transform the content, it may mean that the mode is set.
  • the condition for transforming the content may include a condition related to time.
  • the electronic device 101 eg, the at least one processor 620
  • the electronic device 101 is at least one of a time when a change in the shape of the electronic device 101 is identified or a time when a change in the user's gaze is identified. the specified time from one ( When t) has elapsed, it can be identified that the condition for transforming the content is satisfied.
  • the electronic device 101 when it is identified that the shape of the electronic device 101 does not change or the gaze of the user does not change in operations 1603 to 1605, the electronic device 101 performs the first content 811 can keep the mark of
  • the electronic device 101 may deform and display the first content in operation 1609 .
  • the first content 1722 may be displayed.
  • the electronic device 101 calculates mapping information for transforming the content based on information about the shape and information related to the user's gaze, and uses the calculated mapping information.
  • the first content 811 may be deformed (or, based on the determined information on the virtual plane), and the deformed first content 1751 and 1752 may be displayed. Since the operation of transforming and displaying the content of the electronic device 101 and the operation of calculating the mapping information may be performed as described above in operations 709 to 711 and FIGS. 10 to 13 of the electronic device 101, A duplicate description will be omitted.
  • the electronic device 101 calculates mapping information for transforming content based on information about the shape and information related to the user's gaze, and uses the calculated mapping information (or , based on the determined information on a virtual plane), the first content 811 may be deformed to display the deformed first content 1731 and 1732 . Since the operation of transforming and displaying the content of the electronic device 101 and the operation of calculating the mapping information may be performed as described above in operations 709 to 711 and FIGS. 10 to 13 of the electronic device 101, A duplicate description will be omitted.
  • the electronic device 101 may repeat operations 1603 to 1609 .
  • the electronic device 101 may change the shape of the electronic device 101 (eg, a housing).
  • the content is continuously transformed (eg, 1721, 1722) for display action can be performed.
  • the electronic device 101 may determine whether a condition for transforming the content is satisfied. When the condition for transforming the content is satisfied, the electronic device 101 transforms the content based on information about the currently identified shape of the electronic device 101 and information related to the currently identified gaze of the electronic device 101 . For example, mapping information used for content transformation may be different for each of 1701 , 1702 , and 1703 of FIG. 17 . The electronic device 101 may modify and display the content by using the calculated mapping information.
  • the electronic device 101 changes the shape of the electronic device 101 without determining whether the condition is satisfied (eg, whether a mode is set or whether a time-related condition is satisfied). and/or when a change in the user's gaze is identified, an operation of transforming the content may be performed. For example, the electronic device 101 may omit performing operation 1607 .
  • the electronic device 101 may display at least one graphic element together with content.
  • the electronic device 101 eg, 600
  • the electronic device 101 eg, 600
  • FIG. 18 is a flowchart 1800 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 18 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 18 or at least one fewer operations may be performed. Hereinafter, FIG. 18 will be described with reference to FIGS. 19 to 20 .
  • 19 is a diagram for describing an example of an operation of displaying at least one color based on a color of a graphic element in a second area of an electronic device according to various embodiments of the present disclosure
  • 20 is a diagram for describing an example of an operation of maintaining display of a graphic element while displaying modified content of an electronic device according to various embodiments of the present disclosure
  • the electronic device 101 may display the first content 811 and at least one graphic element 1911 , 1912 , and 1913 in operation 1801 .
  • the electronic device 101 may display the execution screen of the application according to the execution and/or driving of the application.
  • the execution screen of the application is the content 811 (eg, image, image, 3D object) displayed based on data (eg, image data, image data) acquired according to the execution and/or driving of the application and control of the application and/or at least one graphic element 1911 , 1912 , and 1913 for providing application-related information.
  • the at least one graphic element 1911, 1912, 1913 includes bar-shaped objects (eg, a navigation bar, a status bar, and a toolbar), and an object for control (eg, a navigation bar). : a toggle button, a slider, and an action button).
  • the electronic device 101 identifies information acquired by the acquiring device 610 in operation 1803 , and in operation 1805 , A change in shape and/or a change in the user's gaze may be confirmed. For example, when the angle between the housings is changed from the first angle to the second angle as shown in 1901 to 1902 of FIG. 19 , the electronic device 101 receives information identified from the at least one sensor 611 Accordingly, it can be identified that the angle between the housings is the second angle. Also, for example, the electronic device 101 may check whether the user's gaze is changed by checking the change of the user's viewpoint information. Operations 1803 to 1805 of the electronic device 101 may be performed identically or similarly to operations 703 to 705 of the electronic device 101, and thus a redundant description will be omitted.
  • the electronic device 101 displays the first content 811 in operation 1807 based on information about a shape and information related to a user's gaze.
  • the modified first content 911 may be displayed by being deformed.
  • the electronic device 101 may obtain mapping information based on information about a shape and information related to a user's gaze, and may deform and display the first content using the obtained mapping information. Since operation 1807 of the electronic device 101 may be performed identically or similarly to operation 707 of the above-described electronic device 101, a redundant description will be omitted.
  • an operation of maintaining the display of the at least one graphic element 1911 , 1912 , and 1913 while deforming and displaying the content of the electronic device 101 will be described.
  • the electronic device 101 may maintain display of the at least one graphic element 1911 , 1912 , and 1913 while displaying the first content by deforming it. For example, as shown in 1902 of FIG. 19 , the electronic device 101 transforms content and at least one graphic element (element 1, element 2, element 3) (eg, 1911, 1912, 1913). You can set up or down.
  • the electronic device 101 sets the content 811 (eg, an image, an image, a 3D object) to be deformable, and at least one graphic element 1911 , 1912 , 1913 (eg, a navigation bar, and a control buttons) can be set to non-deformable.
  • the content 811 may be set to be deformed to compensate for being distorted and perceived by the user, and the at least one graphic element 1911 , 1912 , and 1913 may be set not to be deformed for the convenience of user manipulation. . Accordingly, when the shape of the electronic device 101 or the direction of the user's gaze (for example, the direction from the coordinates associated with the gaze to the central point of the electronic device 101) is changed, the electronic device 101 changes the content 811
  • the display of the at least one graphic element 1911 , 1912 , and 1913 may be maintained while displaying . Meanwhile, the present invention is not limited thereto, and at least one graphic element 1911 , 1912 , and 1913 may be set to be deformed and displayed.
  • the electronic device 101 identifies the color of the first graphic element in operation 1809 , and determines the second graphic element based on the color of the first graphic element in operation 1811 .
  • At least one color set for background processing may be displayed on the second area 931 .
  • the electronic device 101 sets the color of the first graphic element 1911 among the at least one graphic element 1911 , 1912 , and 1913 being displayed as a color for background processing. can be identified.
  • the electronic device 101 displays the deformed first content 811 while displaying the first graphic element 1911 identified in the second region 931 other than the first region in which the deformed first content 911 is displayed. color can be displayed.
  • an operation of identifying a color for background processing of the electronic device 101 will be further described.
  • a first graphic among the plurality of graphic elements to identify a color for background processing Element 1911 may be identified.
  • the electronic device 101 provides information on the second area 931 (eg, coordinates 2021 (eg, x1, y1)) and information on an area in which a plurality of graphic elements are displayed (eg: The first graphic element 1911 among the plurality of graphic elements may be identified by comparing the coordinates 2021 (eg, x2, y2). Referring to the content transformation operation shown in 2001 to 2002 of FIG.
  • the electronic device 101 when the electronic device 101 deforms and displays the first content 811 , the first area in which the deformed first content 911 is displayed.
  • Information eg, coordinates 2021 (eg, x1, y1)
  • the electronic device 101 may identify information (eg, coordinates 2022 (eg, x2, y2)) on the plurality of graphic elements.
  • the electronic device 101 compares the information on the second area 931 with the information on the plurality of graphic elements, and compares the information on the plurality of graphic elements with the first first area closest to the second area 931 among the plurality of graphic elements.
  • a graphic element 1911 may be identified.
  • the electronic device 101 may improve the visibility of the deformed first content 911 by setting at least one color for background processing as the color of the closest first graphic element 1911 .
  • the electronic device 101 may set a color different from the color of the first graphic element as a color for background processing.
  • the electronic device 101 when displaying a plurality of graphic elements, may set at least one color based on colors of the plurality of graphic elements. For example, the electronic device 101 may identify each of the colors of the plurality of graphic elements, and identify a color associated with the plurality of identified colors as a color for background processing. For example, the electronic device 101 calculates an average value of values (eg, a brightness value, a saturation value, and a color value) associated with a plurality of colors, and performs background processing on a color that is the same as or similar to a color corresponding to the calculated average value. can be identified by at least one color for As another example, the electronic device 101 may identify a color different from the identified color among the plurality of colors as at least one color for background processing.
  • values eg, a brightness value, a saturation value, and a color value
  • the electronic device 101 displays the first content associated with the first application by transforming it while displaying the second application in a second area other than the first area in which the modified first content is displayed.
  • Second content related to may be displayed.
  • FIG. 21 is a flowchart 2000 illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 21 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 21 or at least one fewer operations may be performed. Hereinafter, FIG. 21 will be described with reference to FIGS. 22 to 23 .
  • 22 is a diagram for describing an example of an operation of displaying content on a second area of an electronic device according to various embodiments of the present disclosure
  • 23 is a diagram for describing another example of an operation of displaying content on a second area of an electronic device according to various embodiments of the present disclosure
  • the electronic device 101 may display the first content associated with the first application in operation 2101 .
  • the electronic device 101 executes and/or executes a first application (eg, a web application) and/or information (eg, such as HTML Based on a file for displaying a web page), execution screens (eg, 2211 and 2311) of the first application including first content (eg, at least one of an image, an image, or text) may be displayed. Since operation 2101 of the electronic device 101 may be performed the same as or similar to operation 701 of the above-described electronic device 101, a redundant description will be omitted.
  • the electronic device 101 identifies the information acquired by the acquiring device 610 in operation 2103 , and in operation 2105 , the shape of the electronic device 101 .
  • a change of and/or a change of the user's gaze may be confirmed.
  • an angle between the housings of the electronic device 101 eg, the first housing 812 and the second housing 813 ) as shown in 2201 to 2202 of FIG. 22 and 2301 to 2302 of FIG. 23 .
  • the electronic device 101 determines the shape (eg, the angle between the housings) of the electronic device 101 based on information detected from the at least one sensor 611 . 2 angles) can be identified.
  • the electronic device 101 may check whether the user's gaze is changed by checking the change of the user's viewpoint information.
  • Operations 2102 to 2103 of the electronic device 101 may be performed the same as or similar to operations 703 to 705 of the electronic device 101, and thus redundant descriptions will be omitted.
  • the electronic device 101 transforms the first content based on information about a shape and information related to a user's gaze in operation 2107 .
  • the first content can be displayed.
  • the electronic device 101 may display an execution screen (eg, 2211, 2231) of the first application including the first content transformed based on the mapping information. ) can be displayed. Since operation 2104 of the electronic device 101 may be performed identically or similarly to operation 707 of the above-described electronic device 101, a redundant description will be omitted.
  • the electronic device 101 may display second content related to a second application on the second area in operation 2109 .
  • the electronic device 101 displays second content (eg, 2212, 2312) associated with a second application different from the first application in a second area other than the first area in which the modified first content is displayed. can be displayed
  • the remaining area other than the area in which the second content (eg, 2212 and 2312) is displayed in the second area may be displayed with at least one color for background processing. Since the operation of displaying at least one color of the electronic device 101 may be performed as in operation 705 of the electronic device 101 and the descriptions of FIGS. 18 to 20 , overlapping descriptions will be omitted.
  • an operation of displaying the second content (eg, 2212 , 2312 ) related to the second application of the electronic device 101 will be described.
  • the electronic device 101 may determine the second content to be displayed in the second area.
  • the electronic device 101 eg, the at least one processor 620
  • the electronic device 101 may determine the second content to be displayed in the second area.
  • examples of an operation of determining the second content of the electronic device 101 will be described.
  • the electronic device 101 may generate the electronic device 101 before the shape or the user's gaze direction (eg, the direction from the coordinates associated with the gaze to the coordinates of the central point of the electronic device 101) is changed. It may be determined to display the content related to the event in the second area.
  • the event may include an event that provides a notification (eg, an alarm) when a specified condition (eg, time, place) is satisfied, and an event that occurs suddenly, such as an event of receiving a message from the external electronic device 101 .
  • the electronic device 101 displays the received message 2212 as shown in 2202 of FIG. 22 .
  • a screen for doing the above may be displayed in the second area.
  • the second application associated with the screen for displaying the message may be different from the first application associated with the first content.
  • the electronic device 101 displays content related to at least one application currently running in the background mode in the electronic device 101 on the second area. can decide The electronic device 101 may execute at least one other application in the background mode while executing the first application in the foreground mode. As shown in 2302 of FIG. 23 , the electronic device 101 may display content (eg, 2312 ) related to at least one application executed in the background mode in the second area. When the plurality of applications are executed in the background mode, the electronic device 101 displays content related to an application corresponding to the highest activity among the plurality of applications (or an application most recently controlled by a user). (eg, 2312) can be displayed in the second area.
  • content eg, 2312
  • the second content (eg, 2312 ) related to the application executed in the background mode may include a part of the execution screen of the application. Also, without being limited thereto, the second content may include an icon for executing an application executed in a background mode. In addition, the present invention is not limited thereto, and contents related to a plurality of applications executed in the background mode may be displayed in the second area.
  • the electronic device 101 may identify a second application associated with the first application and display content associated with the identified second application. For example, although not shown, the electronic device 101 identifies a second application identified as being frequently used together with the first application, and second content (eg, a part of an execution screen) associated with the identified second application. can be displayed. In addition, the present invention is not limited thereto, and contents related to a plurality of applications related to the first application may be displayed in the second area.
  • the electronic device 101 receives a user's input for the second content displayed in the second area, and based on the receiving of the user's input, At least one operation may be performed.
  • At least one operation may be performed.
  • examples of operations of the electronic device 101 will be described.
  • the electronic device 101 may display the second content (eg: When receiving a user's input (eg, 2221, 2321) for selecting 2212, 2312), the selected second content (eg, 2212, 2312) is provided instead of the first modified content (eg, 2211, 2311). 1 area can be displayed.
  • the second content (eg, 2212, 2312) displayed in the first area may be displayed after being transformed based on mapping information.
  • the third application may be an application being executed in a background mode different from that of the second application.
  • the electronic device 101 may not display content in an area of the display that cannot be viewed by the user.
  • FIG. 24 is a flowchart 2400 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 24 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 24 or at least one fewer operations may be performed. Hereinafter, FIG. 24 will be described with reference to FIG. 25 .
  • 25 is a diagram for describing an example of an operation of displaying content in an area of a display that cannot be viewed by a user according to various embodiments of the present disclosure
  • the electronic device 101 may display the first content in operation 2401 .
  • the electronic device 101 performs the first 1 content 811 may be displayed. Since operation 2401 of the electronic device 101 may be performed the same as or similar to operation 701 of the above-described electronic device 101, a redundant description will be omitted.
  • the electronic device 101 identifies the information acquired by the acquiring device 610 in operation 2403 , and in operation 2405 the shape of the electronic device 101 .
  • a change of and/or a change of the user's gaze may be confirmed.
  • the electronic device Reference numeral 101 identifies the shape of the electronic device 101 (eg, the angle between the housings is the second angle) based on information detected from at least one sensor.
  • the electronic device 101 may check whether the user's gaze is changed by checking the change of the user's viewpoint information.
  • Operations 2403 to 2405 of the electronic device 101 may be performed the same or similar to operations 703 to 705 of the electronic device 101, and thus redundant descriptions will be omitted.
  • the electronic device 101 performs the first sub-region 2524 and the second housing 813 of the display corresponding to the first housing 812 in operation 2407 . ) of the second sub-region 2525 of the display corresponding to the sub-region determined not to be recognized by the user may be identified.
  • the first sub-region 2524 may correspond to the display area corresponding to the first housing 812 , and may correspond to the second sub-region 2525 and the second housing 813 .
  • the electronic device 101 may also identify a sub-region determined to be recognized by the user from among the first sub-region 2524 and the second sub-region 2525 .
  • an example of an operation of identifying a sub-region of the display that is not visually recognized by the user of the electronic device 101 will be described.
  • the electronic device 101 may include a first part or a second housing 813 corresponding to a specific part (eg, the first housing 812 ) of the electronic device 101 . ) to the user of the electronic device 101 among the sub-regions (eg, the first sub-region 2524 and the second sub-region 2525 ) of the display based on the camera provided in the second part corresponding to the It is possible to determine a sub-region that does not work.
  • the electronic device 101 may photograph a user using a camera 2521 provided in the first portion of the first housing 812 .
  • the electronic device 101 may identify information (eg, coordinate information) related to the user's gaze from the captured image.
  • the electronic device 101 provides information on the first sub-region 2524 (eg, a coordinate matrix) and the second information on the shape of the electronic device 101 (eg, information on angles between housings). Identifies information (eg, a coordinate matrix) on the sub-regions 2525 , and the direction of the user's gaze toward each sub-region (eg, user direction) from the coordinates associated with the gaze to each sub-region) may be identified.
  • the electronic device 101 may determine one sub-region that is determined not to be recognized by the user from among the plurality of sub-regions by using the information on the user's gaze direction. For example, when the angle between the gaze direction and the direction perpendicular to one sub-region exceeds a specified angle (eg, 90°), it may be determined that the sub-region is not viewed.
  • a specified angle eg, 90°
  • the electronic device 101 (eg, the at least one processor 620 ) includes a plurality of parts (eg, a first part and a second part corresponding to the first housing 812 ) of the electronic device 101 . Based on the cameras (the camera 2521 and other cameras (not shown)) provided in the second part corresponding to the housing 813), it is possible to determine a sub-region that is not visible to the user among the sub-regions of the display. have.
  • the electronic device 101 photographs a user by using the first camera 2511 provided in one part (eg, the first part of the first housing 812 ), and in another part (eg, the second housing 812 ). 813), the user may be photographed using another camera (not shown) provided in the second part).
  • the electronic device 101 may identify one image in which the user is not detected from the images photographed in each portion, and confirm that the sub-region corresponding to the portion in which the one image is photographed is a sub-region that is not recognized by the user. have.
  • the first transformed first sub-region 2524 when the second sub-region 2525 is identified in operation 2409 in the electronic device 101 (eg, the at least one processor 620 ), the first transformed first sub-region 2524 .
  • the content may be displayed, and at least one color may be displayed in an area other than the area in which the deformed first content is displayed.
  • the electronic device 101 transforms the first content by using the mapping information, and transforms the first content based on the shape of the sub-region (eg, the first sub-region 2524 ) of the display identified as being recognized by the user. can be displayed.
  • the electronic device 101 may transform the first content based on mapping information as shown in 2503 of FIG. 25 .
  • the electronic device 101 In order to display the transformed first content on the second sub-region 2525 determined to be viewed by the user, the electronic device 101 displays the transformed first content according to the mapping information to the first sub-region 2524 of the display. It can be deformed (eg, size adjustment 2531) to correspond to the shape of .
  • the electronic device 101 may display a color for background processing in an area other than a specific area in which the first content of the first sub area 2524 of the display is displayed.
  • the electronic device 101 displays the deformed first content on the first sub-region 2524 of the display while turning off the second sub-region 2525 of the display, which is determined not to be viewed by the user. off) (eg, turn-off the backlight unit of the display).
  • the electronic device 101 controls the second sub-region 2525 determined not to be recognized by the user so that it is turned off, thereby reducing the operational burden caused by controlling the portion of the display that is unnecessary to display the content. have.
  • the electronic device 101 may display the content by deforming it based on a display mode (eg, a landscape mode and a portrait mode) of the electronic device.
  • a display mode eg, a landscape mode and a portrait mode
  • FIG. 26 is a flowchart 2600 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 26 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 26 or at least one fewer operations may be performed. Hereinafter, FIG. 26 will be described with reference to FIG. 27 .
  • 27 is a diagram for explaining an example of an operation of displaying content based on a display mode of an electronic device of an electronic device according to various embodiments of the present disclosure
  • the electronic device 101 may display the first content in operation 2601 .
  • the electronic device 101 performs the first operation in a state where the angle between the first housing 812 and the second housing 813 is a first angle (eg, 180°).
  • 1 content 2711 may be displayed.
  • the first content 2711 may be displayed based on a display mode (eg, a landscape mode or a portrait mode) of the electronic device 101 set according to whether the electronic device 101 is rotated.
  • the horizontal mode may be set when one side of the electronic device 101 is rotated to be parallel to the ground
  • the vertical mode may be set when one side of the electronic device 101 is rotated to be perpendicular to the ground.
  • the electronic device 101 displays the first content in a horizontal shape of the display of the electronic device 101 (eg, a shape when the display of the electronic device 101 is long) based on the horizontal mode, and based on the vertical mode Accordingly, the first content may be displayed in a vertical shape of the electronic device 101 (eg, a shape when the display of the electronic device 101 is long).
  • the electronic device 101 may display the first content based on the horizontal mode.
  • operation 2701 of the electronic device 101 may be performed the same as or similar to operation 701 of the above-described electronic device 101, a redundant description will be omitted.
  • the electronic device 101 identifies the information acquired by the acquiring device 610 in operation 2603 , and in operation 2605 , the shape of the electronic device 101 . and/or whether the user's gaze is changed. For example, when the angle between the housings (eg, the first housing 812 and the second housing 813 ) is changed from the first angle to the second angle as shown in 2602 of FIG. 27 , the electronic device Reference numeral 101 identifies the shape of the electronic device 101 (eg, the angle between the housings is the second angle) based on information detected from at least one sensor. Also, for example, the electronic device 101 may check whether the user's gaze is changed by checking the change of the user's viewpoint information. Operations 2503 to 2505 of the electronic device 101 may be performed the same or similar to operations 703 to 705 of the electronic device 101, and thus redundant descriptions will be omitted.
  • the electronic device 101 may check the display mode of the electronic device 101 in operation 2607 .
  • the electronic device 101 may identify that the current display mode of the electronic device 101 is a landscape mode among a portrait mode 2721 and a landscape mode 2722 . .
  • the electronic device 101 may display the modified first content based on information related to the display mode, the shape, and the user's gaze. For example, as shown in 2702 of FIG. 27 , the electronic device 101 may identify a shape (eg, a horizontal shape) of the displayed first content based on the horizontal mode 2722 . The electronic device 101 transforms the first content of the identified shape (eg, a horizontal shape) to the first content 2711 using mapping information obtained based on information about the shape and information related to the user's gaze, and , as shown in 2703 of FIG. 27 , the modified first content 2723 may be displayed. Since the operation of transforming the first content 2711 of the electronic device 101 may be performed the same as or similar to operation 709 of the electronic device 101, a redundant description will be omitted.
  • a shape e.g, a horizontal shape
  • the electronic device 101 (eg, the at least one processor 620 ) performs at least one set for background processing on a second region other than the first region in which the deformed first content is displayed in operation 2611 . Only one color can be displayed. For example, as shown in 2703 of FIG. 27 , the electronic device 101 may display at least one color for background processing in an area 2731 other than the area in which the deformed first content is displayed. Operation 2611 of the electronic device 101 may be performed as described above in operation 706 of the electronic device 101 and in FIGS. 10 to 13 , so a redundant description will be omitted.
  • the electronic device 101 when a plurality of users are identified, the electronic device 101 (eg, 600 ) provides information related to the plurality of users (eg, information related to the gazes of the plurality of users, and the center of gravity of the plurality of users).
  • the content may be modified and displayed based on the information related to .
  • FIG. 28 is a flowchart 2800 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 28 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 28 or at least one fewer operations may be performed. Hereinafter, FIG. 28 will be described with reference to FIGS. 29 to 31 .
  • 29 is a diagram for describing an example of an operation of transforming content when a plurality of users of an electronic device are identified according to various embodiments of the present disclosure
  • 30 is a diagram for explaining another example of an operation of transforming content when a plurality of users of an electronic device are identified according to various embodiments of the present disclosure
  • 31 is a diagram for explaining another example of an operation of transforming content when a plurality of users of an electronic device are identified according to various embodiments of the present disclosure
  • the electronic device 101 may display the first content in operation 2801 .
  • the electronic device 101 may display the first content while the angle between the first housing 812 and the second housing 813 is a first angle (eg, 180°). Since operation 2801 of the electronic device 101 may be performed identically or similarly to operation 701 of the electronic device 101, a redundant description will be omitted.
  • the electronic device 101 identifies information acquired by the acquisition device 610 in operation 2803 , and in operation 2805 , the shape of the electronic device 101 .
  • a change of and/or a change of the user's gaze may be confirmed.
  • the angle between the first housing 812 and the second housing 813 is changed from the first angle to the second housing 813 .
  • the electronic device 101 is an acquisition device (eg, acquisition device 610 in FIG. 6 ) (eg, at least one sensor).
  • the second information (eg, electrical value) can be obtained.
  • the electronic device 101 has a second shape based on the obtained second information (eg, the angle between the first housing 812 and the second housing 813 is the second angle) It can be confirmed that Also, for example, the electronic device 101 may check whether the user's gaze is changed by checking the change of the user's viewpoint information. Operations 2803 to 2805 of the electronic device 101 may be performed the same as or similar to operations 703 to 705 of the electronic device 101, and thus a redundant description will be omitted.
  • the electronic device 101 determines the location of a single user based on the information on the plurality of users 2911 , 2912 , and 2913 in operation 2807 . Associated information can be identified. As illustrated in 2901 of FIG. 29 and 2901 of FIG. 30 , the electronic device 101 may detect a plurality of users 2911 , 2912 , and 2913 from images obtained by photographing using a camera. In order to calculate mapping information for transforming the first content, the electronic device 101 checks information on the plurality of users 2911 , 2912 , and 2913 , and identifies the plurality of users 2911 , 2912 , and 2913 .
  • Information on the plurality of users 2911 , 2912 , and 2913 is information identified by photographing the plurality of users 2911 , 2912 , and 2913 (eg, information on whether to register, information on whether to make a gesture) ), and information associated with each location (eg, gaze location, center of gravity) of the plurality of users 2911 , 2912 , and 2913 .
  • information on the plurality of users 2911 , 2912 , and 2913 is information identified by photographing the plurality of users 2911 , 2912 , and 2913 (eg, information on whether to register, information on whether to make a gesture) ), and information associated with each location (eg, gaze location, center of gravity) of the plurality of users 2911 , 2912 , and 2913 .
  • the electronic device 101 may display a plurality of users based on information on the plurality of users 2911 , 2912 , and 2913 as shown in 2901 of FIG. 29 .
  • One user 2913 may be identified among the ones 2911 , 2912 , and 2913 , and information related to the gaze of the identified user 2913 may be identified.
  • the electronic device 101 may identify a first user registered in the electronic device 101 among the plurality of users 2911 , 2912 , and 2913 , and may identify information related to the gaze of the first user. .
  • the electronic device 101 may store an image (eg, a face image) of the first user.
  • the electronic device 101 compares the facial images of the plurality of users 2911 , 2912 , and 2913 identified from the photographed images with the pre-stored facial images of the first user, so that the plurality of users
  • the first user may be identified from the ones 2911 , 2912 , and 2913 .
  • the electronic device 101 may identify the closest first user from among the plurality of users 2911 , 2912 , and 2913 , and may identify information related to the identified gaze of the first user.
  • the electronic device 101 identifies a first user making a specified gesture (eg, waving a hand or raising a hand) among the plurality of users 2911 , 2912 , and 2913 , and the identified first user It is possible to identify information related to the gaze of a specified gesture (eg, waving a hand or raising a hand) among the plurality of users 2911 , 2912 , and 2913 , and the identified first user It is possible to identify information related to the gaze of
  • the electronic device 101 (eg, at least one processor 620 ) provides a plurality of pieces of information related to the locations of a plurality of users 2911 , 2912 , and 2913 as shown in 3001 of FIG. 30 . may be identified, and information related to the gaze of one user may be identified based on the plurality of pieces of information. As an example, the electronic device 101 identifies coordinates associated with the gazes of each of the plurality of users 2911 , 2912 , and 2913 , and identifies the center coordinates of the coordinates associated with the identified gazes as information associated with the gaze of one user.
  • the electronic device 101 identifies a center of gravity area 3011 of the plurality of users 2911 , 2912 , and 2913 from an image captured by the plurality of users 2911 , 2912 , and 2913 , and the center of gravity
  • the region 3011 may be identified as information related to the gaze of one user for calculating mapping information.
  • the electronic device 101 transforms the first content based on the information on the shape and the information on the location of the single identified user in operation 2809 .
  • the electronic device displays content (eg, 2921, 3021) and at least one color (eg, 2922, 3022) for background processing.
  • Operations 2809 to 2811 of the electronic device 101 may be performed identically or similarly to operations 709 to 711 of the electronic device 101, and thus redundant descriptions will be omitted.
  • the electronic device 101 may transform and display the first content based on information related to the identified user's gaze.
  • the first content 2921 that is deformed and displayed by the electronic device 101 may be viewed on one plane by one user (eg, the first user).
  • the electronic device 101 eg, the at least one processor 620 based on information related to the gaze of the user identified based on the information on the plurality of users 2911 , 2912 , and 2913 .
  • the first content may be deformed and displayed. Referring to 3002 of FIG. 30 , the first content 3021 transformed and displayed by the electronic device 101 is viewed on one plane by a plurality of users 2911 , 2912 , and 2913 (eg, the first user). can be
  • the electronic device 101 is not limited thereto and as shown in FIG. 31 , the plurality of users 3101 and 3102 are located at different positions (eg, the first housing 812 and the second housing 812 ). 2, when located in a position opposite to each of the housing 813), it is possible to obtain information related to the gaze of the plurality of users (3101, 3102).
  • the electronic device 101 is configured to allow the first content to be viewed on a first virtual plane corresponding to each of the first housings 812 based on information related to the gazes of the plurality of users 3101 and 3102 .
  • Mapping information eg, a first homography value
  • second mapping information eg, a second homography value
  • Mapping information for allowing the first content to be viewed on a second virtual plane corresponding to the second housing 813
  • the electronic device 101 transforms and displays the first sub-content 3111 corresponding to the first housing 812 of the first content using the first mapping information, and displays it in the second housing 813 of the first content.
  • the corresponding second sub content 3112 may be displayed after being transformed using the second mapping information.
  • the electronic device 101 displays the deformed first sub-content 3111 in the display area corresponding to the first housing 812 and deforms in the display area corresponding to the second housing 813 .
  • the second sub content 3112 may be displayed. Accordingly, as shown in FIG.
  • the modified first content (eg, the first sub content 3111 and the second sub content 3112 ) displayed on the electronic device 101 is different from a plurality of users in different locations. It may be visually recognized on each plane (eg, a virtual first plane and a virtual second plane) by each of the ones 3101 and 3102 .
  • a foldable electronic device eg, 600 of FIG. 6
  • at least one sensor eg, 611 of FIG. 6A
  • a hinge e.g., and a first housing (eg, a portion connected to the hinge) 812 of FIG. 8
  • a second housing e.g, 813 of FIG. 8
  • the first housing e.g., 812 of FIG. 8
  • the second housing e.g., 813 of FIG. 8
  • a flexible display eg, 625 in FIG. 6A
  • at least one processor eg, 620 in FIG. 6A
  • the first housing Based on that a folding angle between (eg, 812 of FIG. 8 ) and the second housing (eg, 813 of FIG. 8 ) corresponds to the first angle, a first content is displayed on the flexible display, and the first content is displayed on the flexible display. Based on that the folding angle between the housing (eg, 812 in FIG. 8 ) and the second housing (eg, 813 in FIG. 8 ) corresponds to the second angle range, the foldable electronic device (eg, 600 in FIG. 6A ) ) of the user's gaze (eg, 832 in FIG. 8), and information on the folding angle (eg, 831 in FIG. 8) and the user's viewpoint information (eg, 832 in FIG.
  • the first content is transformed to display the deformed first content on a first area of the flexible display, and a second area different from the first area of the flexible display is set for background processing
  • a foldable electronic device eg, 600 of FIG. 6A ) configured to display at least one color may be provided.
  • a foldable electronic device (eg, 600 of FIG. 6A ) may be provided, in which the first content includes at least one of an image and an image.
  • it further includes a camera (eg, 612 of FIG. 6A ), wherein the at least one processor is configured to detect the user's Identifies two-dimensional coordinate information for a portion, identifies a distance between the user and the foldable electronic device based on a size of a portion of the user identified from the image, and identifies the two-dimensional coordinate information and the distance between the user and the foldable electronic device
  • a foldable electronic device eg, 600 of FIG. 6A
  • identify user viewpoint information eg, 832 of FIG. 8
  • the at least one processor (eg, 620 in FIG. 6A ) is based on the folding angle (eg, 831 in FIG. 8 ) and the user's viewpoint information (eg, 832 in FIG. 8 ), Identifies mapping information for transforming the first content, identifies a plurality of first coordinates associated with the first content, and identifies a plurality of first coordinates and a plurality of first coordinates changed based on mapping information
  • a foldable electronic device (eg, 600 of FIG. 6A ) configured to identify and display the modified first content on the flexible display based on the plurality of changed first coordinates may be provided.
  • the at least one processor (eg, 620 in FIG. 6A ) is based on the folding angle (eg, 831 in FIG. 8 ) and the user's viewpoint information (eg, 832 in FIG. 8 ), to identify information on a virtual plane to which the first content is to be mapped, and to calculate the mapping information based on the information on the virtual plane and information related to the user's gaze (eg, 832 in FIG. 8 )
  • a set, foldable electronic device (eg, 600 of FIG. 6A ) may be provided.
  • the at least one processor compares a third area in which the first content is displayed and a first area in which the modified first content is displayed, and An area of the first region is smaller than an area of the third region, and based on a comparison result of the first region and the third region, the second region in which the at least one color is to be displayed is set to be identified.
  • a device eg, 600 in FIG. 6A ) may be provided.
  • the at least one processor (eg, 620 of FIG. 6A ) is configured to identify the color different from the first color of the first content and display the color on the second area , a foldable electronic device (eg, 600 of FIG. 6A ) may be provided.
  • it further includes a first bezel formed on the first housing (eg, 812 of FIG. 8 ), and a second bezel formed on the second housing (eg, 813 of FIG. 8 ), wherein the at least One color is set to at least one of a pattern based on at least one of the color of the first bezel and the color of the second bezel, or a pattern based on at least one of the color of the first bezel or the color of the second bezel
  • a device eg, 600 in FIG. 6A ) may be provided.
  • the at least one processor eg, 620 of FIG. 6A
  • 1 A foldable electronic device eg, 600 of FIG. 6A ) configured to identify the color based on the color of the graphic element
  • the at least one processor (eg, 620 of FIG. 6A ) is configured to control to maintain the shape of the first graphic element while displaying the deformed first content on the flexible display , a foldable electronic device (eg, 600 of FIG. 6A ) may be provided.
  • the at least one processor (eg, 620 in FIG. 6A ) is based on the folding angle (eg, 831 in FIG. 8 ) and the user's viewpoint information (eg, 832 in FIG. 8 ), one of a first plane corresponding to the first housing (eg, 812 in FIG. 8 ) and a second plane corresponding to the second housing (eg, 813 in FIG. 8 ) is identified, and the first plane is When identified, a foldable electronic device (eg, 600 of FIG. 6A ) configured to transform the first content using the mapping information associated with the identified first plane may be provided.
  • a foldable electronic device eg, 600 of FIG. 6A
  • the at least one processor eg, 620 of FIG. 6A
  • a foldable electronic device eg, 600 of FIG. 6A ) configured to transform second sub content other than the first sub content of the first content may be provided.
  • the at least one processor (eg, 620 in FIG. 6A ) is configured to display the second content on the second area while displaying the modified first content on the flexible display,
  • a foldable electronic device (eg, 600 of FIG. 6A ) in which the first content is associated with a first application and the second content is associated with a second application may be provided.
  • the flexible display includes a third area associated with the first housing (eg, 812 of FIG. 8 ) and a fourth area associated with the second housing (eg, 813 of FIG. 8 ),
  • the at least one processor eg, 620 of FIG. 6A ) selects one of the third area and the fourth area that does not face the user based on information related to the user's gaze (eg, 832 of FIG. 8 ).
  • a foldable electronic device configured to identify an area and display the deformed first content on the third area of the flexible display when the third area among the third area and the fourth area is identified (eg : 600 in FIG. 6A may be provided.
  • the at least one processor identifies a display mode of the foldable electronic device (eg, 600 of FIG. 6A ) to display the first content, and the identified A display mode of the first content is identified based on a display mode of the foldable electronic device (eg, 600 of FIG. 6A ), a display shape of the identified first content, and the folding angle (eg, FIG. 8 ) 831) and the user's viewpoint information (eg, 832 of FIG. 8 ), a foldable electronic device (eg, 600 of FIG. 6A ) configured to transform the first content may be provided.
  • the at least one processor may include, based on information related to the plurality of users, the user's viewpoint information (eg, FIG. 8 ).
  • a foldable electronic device eg, 600 of FIG. 6A ) configured to identify the 832 of FIG. 6A may be provided.
  • a method of operating a foldable electronic device including a first housing (eg, 812 of FIG. 8 ) of the foldable electronic device (eg, 600 of FIG. 6A ); An operation of displaying the first content on the flexible display based on the folding angle between the second housings (eg, 813 in FIG. 8 ) corresponding to the first angle range, the first housing (eg, 812 in FIG. 8 ) and based on that the folding angle between the second housings (eg, 813 in FIG. 8 ) corresponds to a second angle range, information on the user's viewpoint of the foldable electronic device (eg, 600 in FIG. 6A ) (eg, FIG.
  • An operation method including an operation of displaying at least one set color may be provided.
  • an operating method in which the first content includes at least one of an image and an image.
  • the operation of identifying mapping information for transforming the first content based on the folding angle (eg, 831 of FIG. 8 ) and the user's viewpoint information (eg, 832 of FIG. 8 ) an operation of identifying a plurality of first coordinates associated with the first content, an operation of identifying a plurality of first coordinates changed by reflecting the mapping information to the plurality of identified first coordinates, and an operation of identifying the plurality of first coordinates that have been changed
  • An operating method may be provided, including displaying the transformed first content on the flexible display based on 1 coordinates.
  • an operation method may be provided, including an operation of identifying, and an operation of calculating the mapping information based on information on the virtual plane and the user's viewpoint information (eg, 832 of FIG. 8 ).
  • a foldable electronic device eg, 600 of FIG. 6A
  • at least one sensor eg, 611 of FIG. 6A
  • a hinge e.g., and a first housing (eg, a portion connected to the hinge) 812 of FIG. 8 )
  • a second housing e.g, 813 of FIG. 8
  • the at least one processor includes the first housing (eg, 812 in FIG. 6A ) includes the first housing (eg, 812 in FIG.
  • the folding angle between the second housings corresponds to the first angle range, displaying a first sub-content of the first content on the first area of the flexible display, and A second sub-content of the first content is displayed on the second area of the flexible display, and the folding angle between the first housing (eg, 812 in FIG. 8 ) and the second housing (eg, 813 in FIG. 8 ) is the second 2
  • the user's viewpoint information eg, 832 of FIG. 8
  • the foldable electronic device eg, 600 of FIG.
  • the first sub-content is displayed in the first area while transforming the second sub-content based on information on the second information (eg, 831 in FIG. 8) and information on the user's viewpoint (eg, 832 in FIG. 8), the transformed second content
  • a foldable electronic device eg, 600 of FIG. 6A ) set to be displayed on the second area may be provided.

Abstract

다양한 실시예들에 따르면, 폴더블 전자 장치로서, 적어도 하나의 센서, 힌지, 상기 힌지에 일 부분이 연결되는 제 1 하우징, 상기 힌지에 일부분이 연결되는 제 2 하우징, 상기 제 1 하우징과 상기 제 2 하우징 상에 배치되는 플렉서블 디스플레이, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 상기 제 1 하우징 및 상기 제 2 하우징 간 폴딩 각도가 제 1 각도 범위에 대응함에 기반하여, 제 1 컨텐트를 상기 플레서블 디스플레이에 표시하고, 상기 제 1 하우징 및 상기 제 2 하우징 간 상기 폴딩 각도가 제 2 각도 범위에 대응함에 기반하여 상기 폴더블 전자 장치의 사용자 시점 정보를 식별하고, 상기 폴딩 각도 및 상기 사용자 시점 정보에 대한 정보를 기반으로, 상기 제 1 컨텐트를 변형하여 상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이의 제 1 영역에 표시하고, 상기 제 1 영역과 다른 제 2 영역 상에 배경처리를 위하여 설정된 적어도 하나의 색을 표시하도록 설정된, 전자 장치가 제공될 수 있다. 그 밖의 다양한 실시예가 가능하다.

Description

컨텐트를 표시하기 위한 전자 장치 및 그 동작 방법
본 개시의 다양한 실시예는 컨텐트를 표시하기 위한 전자 장치 및 그 동작 방법에 관한 것이다.
현대를 살아가는 많은 사람들에게 휴대용 디지털 통신기기들은 하나의 필수 요소가 되었다. 소비자들은 휴대용 디지털 통신기기들을 이용하여 언제 어디서나 자신이 원하는 다양한 고품질의 서비스를 제공받고 싶어한다.
휴대용 디지털 통신기기들은 디스플레이를 포함하고, 다양한 고품질의 서비스를 제공하기 위해 다양한 종류의 컨텐트를 디스플레이에 표시한다.
소비자들의 휴대용 디지털 통신기기들의 사용 편의성을 향상시키기 위해, 근래에 휴대용 디지털 통신기기들은 다양한 형태로 변형 가능하도록 구현되고 있다. 따라서 휴대용 디지털 통신기기들이 변형되는 경우에도, 휴대용 디지털 통신기기에 표시되는 컨텐트를 소비자들에게 왜곡되지 않은 형태로 제공하는 기술의 구현이 필요하다.
전자 장치는 복수 개의 하우징들과 복수 개의 하우징들 상에 배치되는 플렉서블 디스플레이를 포함할 수 있다. 전자 장치는 어플리케이션을 실행하고 구동함에 따라서 획득되는 데이터를 기반으로, 플렉서블 디스플레이 상에 컨텐트(예: 영상, 이미지)를 표시할 수 있다. 전자 장치의 컨텐트의 표시 중에 복수 개의 하우징들이 회전 축(예: 힌지)을 중심으로 회전되는 경우, 플렉서블 디스플레이 또한 변형되어(예: 폴딩되어) 사용자에 의해 플렉서블 디스플레이에 표시되는 컨텐트가 왜곡되어 시인될 수 있다.
다양한 실시예들에 따르면, 전자 장치 및 그 동작 방법은 전자 장치의 형태(예: 하우징들 사이의 각도)가 변경되는 경우, 일 평면 상에서 시인되도록 컨텐트를 변형함으로써, 컨텐트가 왜곡되어 시인되는 현상을 해소할 수 있다. 또, 다양한 실시예들에 따르면, 전자 장치 및 그 동작 방법은 플렉서블 디스플레이의 변형된 컨텐트가 표시되는 영역 이외의 영역을 배경 처리함으로써, 변형된 컨텐트에 대한 사용자의 시인성을 향상시킬 수 있다.
다양한 실시예들에 따르면, 폴더블 전자 장치로서, 적어도 하나의 센서, 힌지, 상기 힌지에 일 부분이 연결되는 제 1 하우징, 상기 힌지에 일 부분이 연결되는 제 2 하우징, 상기 제 1 하우징과 상기 제 2 하우징 상에 배치되는 플렉서블 디스플레이, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 상기 제 1 하우징 및 상기 제 2 하우징 간 폴딩 각도가 제 1 각도 범위에 대응함에 기반하여, 제 1 컨텐트를 상기 플레서블 디스플레이에 표시하고, 상기 제 1 하우징 및 상기 제 2 하우징 간 상기 폴딩 각도가 제 2 각도 범위에 대응함에 기반하여 상기 폴더블 전자 장치의 사용자의 시점 정보를 식별하고, 상기 폴딩 각도 및 상기 사용자의 시점 정보에 대한 정보를 기반으로, 상기 제 1 컨텐트를 변형하여 상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이의 제 1 영역에 표시하고, 상기 플렉서블 디스플레이의 상기 제 1 영역과는 다른 제 2 영역 상에 배경처리를 위하여 설정된 적어도 하나의 색을 표시하도록 설정된, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따르면, 전자 장치의 동작 방법으로서, 상기 전자 장치의 제 1 하우징 및 제 2 하우징 간 폴딩 각도가 제 1 각도 범위에 대응함에 기반하여 상기 폴더블 전자 장치의 형태가 제 1 형태인 것으로 확인됨에 기반하여, 제 1 컨텐트를 상기 플레서블 디스플레이에 표시하는 동작, 상기 제 1 하우징 및 상기 제 2 하우징 사이의 상기 폴딩 각도가 제 2 각도 범위에 대응함에 기반하여 상기 폴더블 전자 장치의 사용자의 시점 정보를 식별하는 동작, 상기 폴딩 각도 및 상기 사용자의 시점 정보에 대한 정보를 기반으로, 상기 제 1 컨텐트를 변형하여 상기 변형된 제 1 컨텐트를 상기 전자 장치의 플렉서블 디스플레이의 제 1 영역에 표시하는 동작, 및 상기 제 1 영역과는 다른 제 2 영역에 배경처리를 위하여 설정된 적어도 하나의 색을 표시하는 동작을 포함하는, 동작 방법이 제공될 수 있다.
다양한 실시예들에 따르면, 폴더블 전자 장치로서, 적어도 하나의 센서, 힌지, 상기 힌지에 일 부분이 연결되는 제 1 하우징, 상기 힌지에 일 부분이 연결되는 제 2 하우징, 상기 제 1 하우징과 상기 제 2 하우징 상에 배치되는 플렉서블 디스플레이, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는 상기 제 1 하우징 및 상기 제 2 하우징 간 폴딩 각도가 제 1 각도 범위에 대응함에 기반하여, 제 1 컨텐트의 제 1 서브 컨테트를 상기 플렉서블 디스플레이의 제 1 영역에 표시하고, 상기 제 1 컨텐트의 제 2 서브 컨텐트를 상기 플렉서블 디스플리이에의 제 2 영역에 표시하고, 상기 제 1 하우징 및 상기 제 2 하우징 사이의 폴딩 각도가 상기 제 2 각도 범위에 대응함에 기반하여 상기 폴더블 전자 장치의 사용자의 시선과 연관된 정보를 식별하고, 상기 제 1 서브 컨텐트를 상기 제 1 영역에 표시하면서, 상기 제 2 정보 및 상기 사용자의 시선과 연관된 정보에 대한 정보를 기반으로, 상기 제 2 서브 컨텐트를 변형하여 상기 변형된 제 2 컨텐트를 상기 제 2 영역에 표시하도록 설정된, 전자 장치가 제공될 수 있다.
다양한 실시예들에 따른, 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시예들에 따르면, 전자 장치의 형태(예: 하우징들 사이의 각도)가 변경되는 경우, 컨텐트가 일 평면 상에서 시인되도록 컨텐트를 변형함으로써, 컨텐트가 왜곡되어 시인되는 현상을 해소하는 전자 장치 및 그 동작 방법이 제공될 수 있다.
또 다양한 실시예들에 따르면, 전자 장치 및 그 동작 방법은 컨텐트가 왜곡되어 시인되는 현상을 해소하기 위해 컨텐트를 변형하여 표시하는 경우, 플렉서블 디스플레이의 변형된 컨텐트가 표시되는 영역 이외의 영역을 배경 처리함으로써, 변형된 컨텐트에 대한 사용자의 시인성을 향상시키는 전자 장치 및 그 동작 방법이 제공될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 다양한 실시예들에 따른 적어도 둘 이상의 하우징 구조 및 플렉서블 디스플레이를 포함하는 전자 장치의 다양한 예를 설명하기 위한 도면이다.
도 3은 다양한 실시예들에 따른 특정 폴딩 방향을 기준으로 전자 장치의 펼침 상태를 도시한 도면이다.
도 4는 다양한 실시예들에 따른 전자 장치의 접힘 상태를 도시한 도면이다
도 5는 다양한 실시예들에 따른, 전자 장치의 분해 사시도이다.
도 6a는 다양한 실시예들에 따른 전자 장치의 구성의 일 예를 설명하기 위한 도면이다.
도 6b는 다양한 실시예들에 따른 전자 장치의 좌표에 기반하여 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
도 7은 다양한 실시예들에 따른 전자 장치의 동작의 일 예를 설명하기 위한 흐름도이다.
도 8은 다양한 실시예들에 따른 전자 장치의 사용자의 시선과 연관된 정보 및 전자 장치의 형태와 연관된 정보를 식별하는 동작의 일 예를 설명하기 위한 도면이다.
도 9는 다양한 실시예들에 따른 전자 장치의 컨텐트를 변형하는 동작의 일 예를 설명하기 위한 도면이다.
도 10은 다양한 실시예들에 따른 전자 장치의 동작의 다른 예를 설명하기 위한 흐름도이다.
도 11은 다양한 실시예들에 따른 전자 장치의 제 1 정보를 계산하기 위한 동작의 일 예를 설명하기 위한 도면이다.
도 12는 다양한 실시예들에 따른 전자 장치의 제 1 정보를 계산하기 위한 값을 획득하는 동작의 일 예를 설명하기 위한 도면이다.
도 13은 다양한 실시예들에 따른 전자 장치의 획득된 값 및 지정된 수식을 이용하여 제 1 정보를 계산하는 동작의 일 예를 설명하기 위한 도면이다.
도 14는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 15는 다양한 실시예들에 따른 전자 장치의 컨텐트에 포함된 서브 컨텐트를 변형하는 동작의 일 예를 설명하기 위한 도면이다.
도 16은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 도면이다.
도 17a는 다양한 실시예들에 따른 전자 장치의 형태가 변경되고 전자 장치의 조건이 만족된 경우 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
도 17b는 다양한 실시예들에 따른 사용자의 시선이 변경되고 전자 장치의 조건이 만족된 경우 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
도 17c는 다양한 실시예들에 따른 전자 장치의 형태 및 사용자의 시선이 변경된 경우 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
도 18은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 19는 다양한 실시예들에 따른 전자 장치의 제 2 영역에 그래픽 엘리먼트의 색을 기반으로 적어도 하나의 색을 표시하는 동작의 일 예를 설명하기 위한 도면이다.
도 20은 다양한 실시예들에 따른 전자 장치의 변형된 컨텐트를 표시하면서 그래픽 엘리먼트의 표시를 유지하는 동작의 일 예를 설명하기 위한 도면이다.
도 21은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 22는 다양한 실시예들에 따른 전자 장치의 제 2 영역에 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
도 23은 다양한 실시예들에 따른 전자 장치의 제 2 영역에 컨텐트를 표시하는 동작의 다른 예를 설명하기 위한 도면이다.
도 24는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 25는 다양한 실시예들에 따른 사용자에 의해 시인 불가능한 디스플레이의 영역에 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
도 26은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 27은 다양한 실시예들에 따른 전자 장치의 전자 장치의 표시 모드에 기반하여 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
도 28은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 29는 다양한 실시예들에 따른 전자 장치의 복수의 사용자들이 식별되는 경우 컨텐트를 변형하는 동작의 일 예를 설명하기 위한 도면이다.
도 30은 다양한 실시예들에 따른 전자 장치의 복수의 사용자들이 식별되는 경우 컨텐트를 변형하는 동작의 다른 예를 설명하기 위한 도면이다.
도 31은 다양한 실시예들에 따른 전자 장치의 복수의 사용자들이 식별되는 경우 컨텐트를 변형하는 동작의 또 다른 예를 설명하기 위한 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 다양한 실시예들에 따른 적어도 둘 이상의 하우징 구조 및 플렉서블 디스플레이를 포함하는 전자 장치의 다양한 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면, 전자 장치는 둘 이상의 하우징들, 상기 둘 이상의 하우징들이 폴딩가능하도록 연결되는 힌지들, 플렉서블 디스플레이를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 플렉서블 디스플레이는 둘 이상의 하우징들 상에 배치되고, 하우징들의 회전 상태에 따라서 굴곡될 수 있다. 상기 둘 이상의 하우징들의 일측은 각각이 연결된 힌지에 연결되며, 상기 둘 이상의 하우징들은 힌지를 중심으로 회전될 수 있다. 상기 하우징들의 회전 상태에 대해서는 이하에서 더 구체적으로 설명한다.
다양한 실시예들에 따르면 전자 장치에 구비되는 둘 이상의 하우징 구조들과 플렉서블 디스플레이, 및 상기 하우징 구조들의 회전 상태에 따라서 다양한 형태로 전자 장치가 형성될 수 있다. 예를 들어, 상기 다양한 형태는 도 2에 도시된 바와 같이, 전자 장치(예: 플렉서블 디스플레이)에 두 영역을 형성하는 형태(Half fold(도 2의 (c))), 전자 장치(예: 플렉서블 디스플레이)에 세 영역을 형성하는 형태(예: Tri fold(도 2의 (a)), Z fold(도 2의 (b)), Single open gate fold(도 2의 (f))), 전자 장치(예: 플렉서블 디스플레이)에 네 영역을 형성하는 형태(예: double parallel reverse fold(도 2의 (d)), double parallel fold(도 2의 (f)), double gate fold(도 2의 (g)), roll fold(도 2의 (h)), accordion fold(도 2의 (i)), half fold then half fold(도 2의 (j))), 및 전자 장치(예: 플렉서블 디스플레이)에 그 이상의 수의 영역을 형성하는 형태(예: half fold then tri fold(도 2의 (k)))를 포함할 수 있다. 전자 장치는 서로 회전 가능하도록 연결된 하우징 구조들 및 플렉서블 디스플레이를 포함하고, 해당 형태로 하우징 구조들이 회전될 수 있다. 일 실시예에 따르면 적어도 둘 이상의 하우징 및 각각의 하우징에 배치되는 적어도 둘 이상의 디스플레이를 포함하는 전자 장치의 경우, 전자 장치의 각각의 디스플레이는 하우징들의 회전 상태에 따라서 서로 각도를 형성할 수 있다.
이하에서는, 두 개의 하우징들 및 플렉서블 디스플레이를 포함하는 전자 장치를 일 예로 들어, 다양한 실시예들에 따른 전자 장치 및 그 동작 방법에 대해서 설명한다. 다만, 아래에서 설명되는 전자 장치의 컨텐트를 변형하여 표시하는 동작은, 세 개 이상의 하우징 및 플렉서블 디스플레이를 포함하는 전자 장치에 대한 설명에도 준용될 수 있다. 이에 따라, 세 개 이상의 하우징 및 플렉서블 디스플레이를 포함하는 전자 장치에 의해 표시되는 변형된 컨텐트는 사용자에 의해 가상의 일 평면에서 시인될 수 있다.
한편, 상기 전자 장치들은 복수 개의 하우징들 상에 일 디스플레이가 배치되는 것으로 기술하였으나, 복수 개의 하우징들 별로 서로 다른 디스플레이를 구비할 수도 있다. 따라서 아래에서 설명되는 다양한 실시예들에 따른 전자 장치 및 그 동작 방법은 적어도 둘 이상의 하우징과 각각의 하우징에 배치되는 적어도 둘 이상의 디스플레이를 포함하는 전자 장치에 대한 설명에도 준용될 수 있다. 예를 들어, 이하에서 일 하우징에 대응하는 플렉서블 디스플레이의 영역에 대한 설명은, 전자 장치에 구비되는 복수의 디스플레이들 중 일 하우징에 대응하는 디스플레이에 대한 설명에 준용될 수 있다.
이하에서는 전자 장치(101)의 다른 예에 대해서 설명한다.
도 3은 다양한 실시예들에 따른 특정 폴딩 방향을 기준으로 전자 장치(400)(예: 도 1의 전자 장치(101))의 펼침 상태를 도시한 도면이다.
도 3을 참조하면, 전자 장치(400)는 서로에 대하여 접히도록 힌지 구조(460)를 통해 B 폴딩 축을 기준으로 회동 가능하게 결합되는 한 쌍의 하우징 구조(410, 420)(예: 폴더블 하우징 구조) 및 한 쌍의 하우징 구조(410, 420)에 의해 형성된 공간에 배치되는 디스플레이(330)(예: 플렉서블 디스플레이, 폴더블 디스플레이)를 포함할 수 있다. 일 실시예에 따르면, 도 3의 전자 장치(400)는 펼침 상태에서 디스플레이(430)가 제 1 형상과 다른 제 2 형상으로 구성될 수 있다. 일예로, 제 2 형상은 제 1 화면 비율(예: 4:3)과 다른 제 2 화면 비율(16:9)을 포함할 수 있다.
다양한 실시예들에 따르면, 제 1 하우징 구조(410)와 제 2 하우징 구조(420)는 B 폴딩 축(예: 가로 방향의 폴딩 축)을 중심으로 양측에 배치될 수 있다.
일 실시예에 따르면, 제 1 하우징 구조(410)는 제 2 하우징 구조(420)와 달리 카메라(414) 및 다양한 센서들(415)이 배치되는 영역을 포함하지만, 이외의 영역에서는 상호 대칭적인 형상을 가질 수 있다. 다른 실시예로, 카메라(414) 및 다양한 센서들(415)이 배치되는 영역은 제 2 하우징 구조(420)의 적어도 일부 영역에 추가로 배치되거나 대체될 수 있다.
다른 실시예로, 카메라(414) 또는 다양한 센서들(415)의 적어도 일부는 제 1 하우징(410)의 적어도 일부 영역에 배치되고, 나머지 일부는 제 2 하우징 구조(420)의 적어도 일부 영역에 배치될 수도 있다.
다양한 실시예들에 따르면, 제 1 하우징 구조(410)는 전자 장치(400)의 펼침 상태에서, 전자 장치(400)의 전면을 향하도록 배치된 제 1 면(411), 제 1 면(411)의 반대 방향을 향하는 제 2 면(412), 및 제 1 면(411)과 제 2 면(412) 사이의 공간의 적어도 일부를 둘러싸는 제 1 측면 부재(413)를 포함할 수 있다.
다양한 실시예들에 따르면, 제 2 하우징 구조(420)는 전자 장치(400)의 펼침 상태에서, 전자 장치(400)의 전면을 향하도록 배치된 제 3 면(421), 제 3 면(421)의 반대 방향을 향하는 제 4 면(422), 및 제 3 면(421) 및 제 4 면(422) 사이의 공간의 적어도 일부를 둘러싸는 제 2 측면 부재(423)를 포함할 수 있다.
다양한 실시예들에 따르면, 카메라(414)는 제 1 하우징 구조(410)의 일측 코너에 마련된 개구(opening)를 통해 전자 장치(400)의 전면에 노출될 수 있다. 센서들(415)은 근접 센서, 조도 센서, 홍채 인식 센서, 초음파 센서 또는 인디케이터 중 적어도 하나를 포함할 수 있다. 일예로, 센서들(415)은 제 1 하우징 구조(410)의 일측 코너에 마련된 개구(opening)를 통해 전자 장치(400)의 전면에 노출되거나, 디스플레이(430)의 적어도 일부 영역의 하단에 배치될 수 있다.
다양한 실시예에 따르면, 제 1 하우징 구조(410)는 적어도 일부 영역을 통해 배치되는 리시버(416)를 포함할 수 있다. 일 실시예에서, 전자 장치(400)는 미 도시되었으나, 제 1 하우징 구조(410) 및/또는 제 2 하우징 구조(420)를 통해 배치되는 이어잭 홀, 외장형 스피커 모듈, SIM 카드 트레이, 인터페이스 커넥터 포트 또는 적어도 하나의 키 버튼을 포함할 수도 있다.
다양한 실시예들에 따르면, 제 1 하우징 구조(410)와 제 2 하우징 구조(420)는 전자 장치(400)가 펼침 상태(flat state)(예: 도 3의 상태), 접힘 상태(folded state)(예: 후술할 도 4의 상태) 또는 중간 상태(intermediate state)에 따라 서로 이루는 각도나 거리가 달라질 수 있다. 상기 기재된 바에 국한되지 않고, 제 1 하우징 구조(410)와 제 2 하우징 구조(420)의 각도에 따라서, 전자 장치는 닫힘 상태(closed state), 열림 상태(open state), 하프 폴디드 상태(half folded state)로 결정될 수 있는데 이에 대해서는 후술한다. 상기 상태라는 기재는 모드라는 기재로 대체될 수 있다.
다양한 실시예들에 따르면, 제 1 하우징 구조(410)와 제 2 하우징 구조(420) 사이의 각도에 따라서, 전자 장치의 상태(예: 펼침 상태, 접힘 상태, 중간 상태)가 설정되며, 상기 전자 장치의 상태(예: 하우징들의 상태, 힌지의 상태, 또는 플렉서블 디스플레이의 굴곡 상태)에 따라서 어플리케이션의 실행 화면을 표시하는 동작을 수행할 수 있다. 전자 장치의 상태에 따라서, 어플리케이션의 실행 화면을 표시하는 동작에 대해서는 후술한다.
다양한 실시예들에 따르면, 전자 장치(400)는 제 1 하우징 구조(410)의 적어도 일부분에 배치되는 제 1 모션 센서(440) 및 자성체(예: 자석)(442)를 포함할 수 있다. 일 실시예에 따르면, 제 1 모션 센서(440)는 가속도 센서, 각속도 센서(예: 자이로 센서) 또는 지자기 센서 중 적어도 두 개의 조합으로 구성될 수 있다. 일예로, 전자 장치(400)는 제 1 모션 센서(440)를 통해 제 1 하우징 구조(410)의 자세(pose)와 움직임(gesture)을 감지할 수 있다.예를 들어, 제 1 하우징 구조(410)의 자세는 제 1 모션 센서(440)의 가속도 센서에 기반하여 감지되고, 제 1 하우징 구조(410)의 움직임은 제 1 모션 센서(440)의 각속도 센서에 기반하여 감지될 수 있다. 일 실시예에 따르면, 자성체(442)는 힌지 구조(460)에 인접한 제 1 하우징 구조(410)의 적어도 일부분에 배치될 수 있다.
다양한 실시예들에 따르면, 전자 장치(400)는 제 2 하우징 구조(420)의 적어도 일부분에 배치되는 제 2 모션 센서(450) 및 자력 센서 모듈(452)을 포함할 수 있다. 일 실시예에 따르면, 제 2 모션 센서(450)는 가속도 센서, 각속도 센서(예: 자이로 센서) 또는 지자기 센서 중 적어도 두 개의 조합으로 구성될 수 있다. 일예로, 전자 장치(400)는 제 2 모션 센서(450)의 가속도 센서를 통해 제 2 하우징 구조(420)의 자세를 감지하고, 제 2 모션 센서(450)의 각속도 센서를 통해 제 2 하우징 구조(420)의 움직임을 감지할 수 있다. 일 실시예에 따르면, 자력 센서 모듈(452)은 힌지 구조(460)에 인접한 제 2 하우징 구조(420)의 적어도 일부분에 배치될 수 있다. 일예로, 제 1 하우징 구조(410)의 자성체(442)와 제 2 하우징 구조(420)의 자력 센서 모듈(452)은 도 4와 같이, 전자 장치(400)가 접힘 상태에서 적어도 일부가 대면되도록 배치될 수 있다.
도 4는 다양한 실시예들에 따른 전자 장치(예: 도 4의 전자 장치(400))의 접힘 상태를 도시한 도면이다.
다양한 실시예들에 따르면 전자 장치(400)는 서로에 대하여 접히도록 힌지 구조(460)를 통해 B 폴딩 축((예: 가로 방향의 폴딩 축 )을 기준으로 회동 가능하게 결합되는 한 쌍의 하우징 구조(410, 420) 및 한 쌍의 하우징 구조(410, 420)에 의해 형성된 공간에 배치되는 디스플레이(440)(예: 플렉서블 디스플레이(예: 도 4의 디스플레이), 폴더블 디스플레이)를 포함할 수 있다.
다양한 실시예들에 따르면 센서는 후면 카메라 장치(472) 및/또는 근접 센서(474)를 포함할 수 있다. 일 실시예에 따르면, 제 1 하우징 구조(410)의 후면(412)을 통해 서브 디스플레이(470)의 적어도 일부가 시각적으로 노출될 수 있다.
다양한 실시예들에 따르면, 전자 장치(400)의 후면에는 하나 이상의 부품(components)이 배치되거나 시각적으로 노출될 수 있다. 일 실시예에 따르면, 제 1 하우징 구조(410)의 후면(제 2 면)(412)을 통해 하나 이상의 부품 또는 센서가 시각적으로 노출될 수 있다. 센서는 후면 카메라 장치(472) 및/또는 근접 센서(474)를 포함할 수 있다. 일 실시예에 따르면, 제 1 하우징 구조(410)의 후면(412)을 통해 서브 디스플레이(470)의 적어도 일부가 시각적으로 노출될 수 있다.
도 5는, 다양한 실시예들에 따른, 전자 장치(400)(예: 도 3의 전자 장치(400))의 분해 사시도이다.
도 5를 참조하면, 다양한 실시예들에서, 상기 전자 장치(500)는 디스플레이(510)(예: 도 4의 디스플레이(430)), 폴더블 하우징(520)(예: 도 4의 제 1 하우징 구조(410) 및 제 2 하우징 구조(420)), 인쇄회로기판(530), 힌지 구조(540), 안테나 모듈(570) 및 후면 커버(580)를 포함할 수 있다. 이하, 도 4와 중복되는 구성(예: 디스플레이(510), 폴더블 하우징(520), 후면 커버(580))에 대한 상세한 설명은 생략하도록 한다.
다양한 실시예들에 따르면, 디스플레이(510)는, 전면 플레이트(511)의 상당 부분을 통하여 노출될 수 있다. 어떤 실시예에서는, 디스플레이(510)의 형상을 전면 플레이트(511)의 외곽 형상과 대체로 동일하게 형성할 수 있다.
다양한 실시예들에 따르면, 폴더블 하우징(520)은, 제 1 하우징(521) 및 제 2 하우징(522)(예: 도 4의 제 1 하우징 구조(410) 및 제 2 하우징 구조(420))를 포함할 수 있다. 일 실시예에 따르면, 제 1 하우징(521)은 제 1 면(521a), 제 1 면(521a)과 반대 방향으로 향하는 제 2 면(521b)을 포함하고, 제 2 하우징(522)은 제 3 면(522a), 제 3 면(522a)과 반대 방향으로 향하는 제 5 면(522b)을 포함할 수 있다. 폴더블 하우징(520)은 브라켓 어셈블리를 추가적으로 또는 대체적으로 포함할 수 있다. 브라켓 어셈블리는 제 1 하우징 구조(521)에 배치된 제 1 브라켓 어셈블리(523)와, 제 2 하우징 구조(522)에 배치된 제 2 브라켓 어셈블리(524)를 포함할 수 있다. 브라켓 어셈블리의 적어도 일부, 예를 들면 제 1 브라켓 어셈블리(523)의 적어도 일부분과 제 2 브라켓 어셈블리(524)의 적어도 일부분을 포함하는 부분(525)은 힌지 구조(540)를 지지하기 위한 플레이트의 역할을 할 수 있다.
다양한 실시예들에 따르면, 인쇄 회로 기판(530)에는, 다양한 전기 소자가 배치될 수 있다. 예를 들어 인쇄 회로 기판(530)에는, 프로세서(예: 도 1의 프로세서(120)), 메모리(예: 도 1의 메모리(130)), 및/또는 인터페이스(예: 도 1의 인터페이스(177))가 장착될 수 있다. 프로세서는, 예를 들어, 중앙처리장치, 어플리케이션 프로세서, 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서 중 하나 또는 그 이상을 포함할 수 있다. 메모리는, 예를 들어, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 인터페이스는, 예를 들어, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 및/또는 오디오 인터페이스를 포함할 수 있다. 인터페이스는, 예를 들어, 전자 장치(300)를 외부 전자 장치와 전기적 또는 물리적으로 연결시킬 수 있으며, USB 커넥터, SD 카드/MMC 커넥터, 또는 오디오 커넥터를 포함할 수 있다.
다양한 실시예들에 따르면, 인쇄회로기판(530)은 제 1 브라켓 어셈블리(523) 측에 배치되는 제 1 인쇄회로기판(531)과 제 2 브라켓 어셈블리(524) 측에 배치되는 제 2 인쇄회로기판(532)을 포함할 수 있다. 상기 제 1 인쇄회로기판(531)과 제 2 인쇄회로기판(532)은, 폴더블 하우징(520), 브라켓 어셈블리, 제 1 후면 커버(581) 및/또는 제 2 후면 커버(582)에 의해 형성되는 공간의 내부에 배치될 수 있다. 제 1 인쇄회로기판(531)과 제 2 인쇄회로기판(532)에는 전자 장치(500)의 다양한 기능을 구현하기 위한 부품들이 각각 분리되어 배치될 수 있다. 예를 들어, 제 1 인쇄회로기판(531)에는 프로세서가 배치되고, 제 2 인쇄회로기판(532)에는 오디오 인터페이스가 배치될 수 있다.
다양한 실시예에 따르면, 인쇄회로기판(530)에 인접하여 전자 장치(500)에 전원을 공급하기 위한 배터리가 배치될 수 있다. 배터리의 적어도 일부는, 예를 들어, 인쇄 회로 기판(530)과 실질적으로 동일 평면 상에 배치될 수 있다. 일 실시예에 따르면, 제 1 인쇄회로기판(531)에 인접하여 제 1 배터리(533)가 배치되고, 제 2 인쇄회로기판(532)에 인접하여 제 2 배터리(534)가 배치될 수 있다. 배터리는 전자 장치(500)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 또는 재충전 가능한 2차 전지, 또는 연료 전지를 포함할 수 있다. 배터리는 전자 장치(500) 내부에 일체로 배치될 수 있고, 전자 장치(500)와 탈부착 가능하게 배치될 수도 있다.
다양한 실시예들에 따르면, 힌지 구조(540)는 폴더블 하우징(520)이 폴딩 축(예: 도 2의 A-A’)을 중심으로 회전할 수 있도록 폴더블 하우징(520) 및/또는 브라켓 어셈블리를 지지하는 구성일 수 있다. 힌지 구조(540)는 제 1 인쇄회로기판(531) 측에 배치되는 제 1 힌지 구조(541)와 제 2 인쇄회로기판(532) 측에 배치되는 제 2 힌지 구조(542)를 포함할 수 있다. 힌지 구조(540)는 제 1 인쇄회로기판(531) 및 제 2 인쇄회로기판(532) 사이에 배치될 수 있다. 일 실시예에 따르면, 힌지 구조(540)는 제 1 브라켓 어셈블리(523)의 적어도 일부분과 제 2 브라켓 어셈블리(524)의 적어도 일부분을 포함하는 부분(525)과 실질적으로 일체로 이루어질 수 있다.
다양한 실시예들에 따르면, 안테나 모듈(570)은, 후면 커버(580)와 배터리 사이에 배치될 수 있다. 안테나 모듈(570)은, 예를 들어, NFC(near field communication) 안테나, 무선 충전 안테나, 및/또는 MST(magnetic secure transmission) 안테나를 포함할 수 있다. 안테나 모듈(570)는, 예를 들어, 외부 장치와 근거리 통신을 하거나, 충전에 필요한 전력을 무선으로 송수신 할 수 있다. 다른 실시예에서는, 폴더블 하우징(520)의 측면 베젤 구조 및/또는 브라켓 어셈블리의 일부 또는 그 조합에 의하여 안테나 구조가 형성될 수 있다.
다양한 실시예들에 따르면, 후면 커버(580)는 제 1 후면 커버(581) 및 제 2 후면 커버(582)를 포함할 수 있다. 후면 커버(580)는 폴더블 하우징(520)과 결합하여, 폴더블 하우징(520) 내에 배치되는 상술한 구성들(예: 인쇄회로기판(530), 배터리, 안테나 모듈(570))을 보호하는 역할을 할 수 있다. 전술하였듯이 후면 커버(580)는 폴더블 하우징(520)과 실질적으로 일체로 구성될 수도 있다.
이하에서는, 다양한 실시예들에 따른 전자 장치(101)의 구성의 일 예에 대해서 설명한다. 이하에서 기술되는 전자 장치(600)에 대해서는 상술한 전자 장치들(예: 도 1의 전자 장치(101), 도 2의 전자 장치들, 도 3 내지 도 5의 전자 장치들(300, 400 500))에 대한 설명이 준용되므로, 중복되는 설명은 생략한다.
도 6a는 다양한 실시예들에 따른 전자 장치의 구성의 일 예를 설명하기 위한 도면이다. 다양한 실시예들에 따르면 도 6a에 도시된 구성들에 국한되지 않고, 전자 장치는 도시된 구성들 보다 더 많은 구성들 또는 도시된 구성들 보다 더 적은 구성들을 포함할 수 있다. 예를 들어, 도 1에서 기술된 전자 장치(101)의 구성들, 및 도 3 내지 도 5의 전자 장치들(300, 400 500)의 구성들이 도 6a에 도시된 전자 장치에 포함될 수 있다. 예를 들어, 도 1에서 설명된 통신 모듈(190)이 전자 장치(600)에 포함될 수 있으며, 통신 모듈에 대한 중복되는 설명은 생략한다.
도 6b는 다양한 실시예들에 따른 전자 장치의 좌표에 기반하여 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(600)는 도 6을 참조하면 센서(611) 및 카메라(612)를 포함하는 획득 장치(610), 제 1 프로세서(621) 및 맵핑 정보 획득 모듈(623) 및 컨텐트 제어 모듈(624)을 포함하는 제 2 프로세서(622)를 포함하는 프로세서(620), 그래픽 처리 모듈(625), 및 디스플레이(626)를 포함할 수 있다. 상기 전자 장치(610)에 포함된 구성들(예: 상기 센서(611), 상기 카메라(612), 및 상기 프로세서(620), 디스플레이(626))의 각각은 적어도 하나 이상의 구성을 포함할 수 있다. 예를 들어, 상기 프로세서(620)는 제 1 프로세서(621) 및 제 2 프로세서(622)와 같이 둘 이상의 프로세서를 포함할 수 있다. 또 예를 들어, 상기 카메라(612)는 단일의 카메라를 포함하거나, 둘 이상의 카메라를 포함할 수 있다.
이하에서는 획득 장치(610)에 대해서 설명한다.
다양한 실시예들에 따르면 획득 장치(610)를 이용하여 전자 장치(600)와 연관된 정보를 검출하고, 검출된 정보를 프로세서(620)로 전달할 수 있다.
예를 들어 획득 장치(610)는 전자 장치(600)의 형태에 대한 정보를 검출할 수 있다. 상기 전자 장치(600)의 형태는 하우징들 사이의 폴딩 각도, 하우징들 사이의 접촉 여부, 또는 플렉서블 디스플레이(626)의 굽어진 정도 중 적어도 하나를 의미할 수 있다. 예를 들어, 전자 장치(600)는 상기 전자 장치(600)의 형태에 대한 정보로서 상기 전자 장치(600)에 포함된 하우징들 사이의 폴딩 각도에 대한 정보, 하우징들의 접촉 여부를 나타내는 정보, 및 하우징들 사이의 각도에 의한 플렉서블 디스플레이(626)가 굽어진 정도를 확인할 수 있다. 일 예로, 전자 장치(600)는 센서(611)로서 상기 형태에 대한 정보를 검출하기 위한 자이로 센서를 포함하고, 상기 폴딩 상태를 검출하기 위한 포텐셔미터(potentiometer), 광학 엔코더, 자기식 엔코더, 및/또는 접촉식 센서를 포함할 수 있으나 이에 제한된 것은 아니다. 상기 센서(611)는 전자 장치(600)의 폴딩 상태를 검출하기 위한 부분에 구비될 수 있다. 전자 장치(600)는 상기 하우징들 사이의 각도가 변경되는 경우 상기 센서(611)(예: 홀 센서)에 의해 검출된 정보(예: 전기적인 값)을 획득하고, 정보(예: 전기적인 값)에 대응하는 하우징들 사이의 각도에 대한 정보, 하우징들의 접촉 여부를 나타내는 정보를 확인할 수 있다. 또 다른 예로, 전자 장치(600)는 상기 형태에 대한 정보를 검출하기 위한 위치에 구비되는 상기 카메라(612)를 포함할 수 있다. 상기 카메라(612)는 전자 장치(600)에 포함된 복수 개의 하우징들 사이가 특정 각도인 경우 다른 하우징들을 촬영가능 하도록 일 하우징에 구비될 수 있다. 상기 카메라(612)에 의해 촬영된 이미지로부터 식별되는 다른 하우징의 형상에 따라서 복수 개의 하우징들 사이의 각도가 식별될 수 있다. 이하에서는 설명의 편의를 위하여, 센서(611)(예: 포텐셔 미터, 광학 엔코더, 자기식 엔코더, 및/또는 접촉식 센서)를 이용하여 전자 장치(600)의 형태를 확인하는 동작을 예로 들어 설명한다. 다만, 이하의 설명들에는 카메라(612)를 이용하여 전자 장치(600)의 형태를 확인하는 동작에 대한 설명이 준용될 수 있다. 한편, 상기 기재된 바에 국한되지 않고, 상기 전자 장치(600)의 형태는 하우징들 사이의 각도, 또는 하우징들 사이의 접촉 여부 중 적어도 하나에 대응하는 전자 장치(600)의 기설정된 모드를 포함하는 광의의 의미일 수 있다. 예를 들어, 전자 장치(101)는 하우징들 사이의 폴딩 각도를 검출하는 경우, 복수 개의 각도 범위들 중 폴딩 각도가 포함되는 각도 범위를 식별할 수 있다. 상기 복수 개의 각도 범위들은 상기 전자 장치(101)의 형태를 구분하기 위해 설정된 각도 범위들(예: 0° 내지 30°, 30° 내지 90°, 90° 내지 130°, 180°)일 수 있다. 상기 전자 장치(101)는 식별되는 각도 범위 별로 전자 장치(600)의 모드를 확인할 수도 있다. 예를 들어, 상기 모드는 상술한 각도 범위들 별로 기설정되는 것으로서, 0° 내지 30 °인 경우에 대응하는 하프 폴디드(half-folded) 모드, 180°인 경우에 대응하는 오픈(open) 모드 및/또는 태블릿(tablet) 모드, 및 하우징들 사이의 각도가 0°인 경우에 폐쇄(closed) 모드와 같은 모드들을 포함할 수 있다.
또 예를 들어 획득 장치(610)는 전자 장치(600)의 사용자의 위치와 연관된 정보를 검출할 수 있다. 상기 사용자의 위치와 연관된 정보는 사용자의 시선과 연관된 정보 및 사용자의 무게 중심에 대한 정보를 포함할 수 있다. 상기 사용자의 위치와 연관된 정보는 사용자와 연관된 3차원 좌표를 포함할 수 있다. 예를 들어, 상기 사용자의 위치와 연관된 정보는 사용자의 시점 정보를 포함할 수 있다. 상기 사용자의 시점 정보는 사용자의 일부(예: 얼굴 및/또는 눈)에 대한 3차원 좌표를 포함할 수 있다. 일 예로, 전자 장치(600)는 사용자를 촬영 가능한 부분에 구비되는 카메라(612)를 이용하여 사용자의 시선과 연관된 정보를 검출할 수 있다. 전자 장치(600)는 상기 카메라(612)를 이용하여 촬영된 사용자에 대한 이미지로부터 사용자의 얼굴 또는 사용자의 인체 형상을 검출하고, 검출된 사용자의 얼굴 또는 사용자의 인체 형상에 기반하여 사용자의 시점에 대한 3D 좌표를 획득할 수 있다. 예를 들어, 전자 장치(600)는 검출된 사용자의 시선과 연관된 사용자의 일부(예: 얼굴 및/또는 눈)에 대한 2D(two-dimension) 좌표를 계산할 수 있다. 또 전자 장치(600)는 상기 사용자에 대한 이미지로부터 사용자의 얼굴의 크기 또는 사용자의 인체 형상의 크기를 식별하고, 상기 크기에 대한 정보를 이용하여 상기 전자 장치(600)와 상기 사용자 사이의 거리(또는, depth)를 계산할 수 있다. 전자 장치(600)는 사용자의 일부(예: 얼굴 및/또는 눈)와 연관된 2D 좌표와 거리를 이용하여, 사용자의 일부에 대한 3D(three-dimension) 좌표를 획득할 수 있다. 전자 장치(600)와 사용자 사이의 거리를 계산하기 위한 다른 예로, 전자 장치(600)는 복수 개의 카메라들을 포함하고, 상기 복수 개의 카메라들로부터 촬영된 사용자에 대한 이미지들 각각을 이용하여 거리를 계산할 수도 있다. 전자 장치(600)와 사용자 사이의 거리를 계산하기 위한 또 다른 예로, 전자 장치(600)는 TOF(time of flight) 센서를 포함하는 센서(611)를 이용하여 상기 사용자에 대한 거리를 계산할 수 있다.
이하에서는 프로세서(620)에 대해서 설명한다. 프로세서(620)에 포함된 모듈들은 프로세서(620)가 적어도 하나의 동작을 수행하도록 하는 인스트럭션들(instructions), 컴퓨터 코드(computer code), 프로그램, 내지 프로세스와 같은 전자적인 형태로 구현될 수 있다. 예를 들어, 모듈이 실행되는 경우, 모듈은 전자 장치(600)(예: 프로세서(620))가 모듈과 연관된 적어도 하나의 동작을 수행하도록 할 수 있다. 프로세서(620)는 도 1에서 기술된 프로세서(120)의 일 예이므로, 프로세서(120)에 이하의 프로세서(620)에 대한 설명이 준용된다.
이하에서는 제 1 프로세서(621)에 대해서 설명한다.
다양한 실시예들에 따르면, 제 1 프로세서(621)는 획득 장치(610)를 이용하여, 전자 장치(101)의 형태에 대한 정보(예: 폴딩 각도 및/또는 폴딩 각도가 포함되는 각도 범위), 사용자의 시선과 연관된 정보(예: 사용자의 시점 정보)를 획득할 수 있다. 상기 제 1 프로세서(621)는 획득된 상기 형태에 대한 정보에 기반하여 전자 장치(101)의 형태의 변경을 식별하거나, 또는 획득된 사용자의 시선과 연관된 정보에 기반하여 사용자의 시선의 변경을 식별할 수 있다.
다양한 실시예들에 따르면 제 1 프로세서(621)는 적어도 하나의 어플리케이션의 실행 및/또는 구동할 수 있다. 상기 컨텐트는 이미지, 영상, 텍스트, 및 3D 오브젝트(예: AR/VR 오브젝트)와 같은 다양한 종류의 컨텐트를 포함 할 수 있다. 상기 컨텐트는 상기 전자 장치(101)의 화면 상에 표시될 수 있다. 상기 화면은 컨텐트를 표시하기 위한 시각적 레이아웃일 수 있다. 예를 들어, 상기 화면은 적어도 하나의 어플리케이션의 실행 및/또는 구동에 따라서 표시되는 실행 화면을 포함할 수 있다. 예를 들어, 전자 장치(600)는 제 1 어플리케이션(예: 비디오 재생 어플리케이션)의 실행 및/또는 구동에 따라서 비디오 데이터를 획득하고, 상기 비디오 데이터에 기반하여 상기 컨텐트로서 영상을 포함하는 상기 제 1 어플리케이션의 실행 화면을 표시할 수 있다. 또 예를 들어, 전자 장치(600)는 제 2 어플리케이션(예: 갤러리 어플리케이션)의 실행 및/또는 구동에 따라서 이미지 데이터를 획득하고, 상기 이미지 데이터에 기반하여 상기 제 2 어플리케이션의 실행 화면에 상기 컨텐트로서 이미지를 표시할 수 있다. 또 예를 들어, 전자 장치(600)는 제 3 어플리케이션(예: 웹 어플리케이션)의 실행 및/또는 구동에 따라서 웹 페이지를 표시하기 위한 파일(예: HTML 파일)을 획득하고, 상기 파일에 기반하여 제 3 어플리케이션의 실행 화면에 상기 컨텐트로서 이미지, 영상, 또는 텍스트 중 적어도 하나를 포함하는 웹 페이지를 표시할 수 있다. 또 전자 장치(600)(예: 제 1 프로세서(621))는 컨텐트를 표시하면서 어플리케이션의 실행 및/또는 구동에 따라 그래픽 엘리먼트들을 더 표시할 수 있는데 이에 대한 실시예는 도 16 내지 도 18에서 후술한다.다양한 실시예들에 따르면 상기 컨텐트에 대한 정보는 도 6b에 도시된 바와 같이 컨텐트(650)의 일 부분들(예: 픽셀들)이 표시될 위치(예: 좌표)에 대한 정보 및 각 위치에서 표시되는 색에 대한 정보(예: 색상 값, 채도 값, 및 명도 값, 또는 HSV, RGB와 같은 색 공간의 값들에 대한 정보)를 포함할 수 있다. 상기 컨텐트가 표시되는 위치(예: 좌표)는 상술한 화면(예: 실행 화면) 상의 위치(예: 좌표)를 의미할 수 있다. 예를 들어, 상기 후술될 제 2 프로세서(622)는 컨텐트에 대한 정보를 그래픽 처리 모듈(625)로 전달하고, 그래픽 처리 모듈(625)은 컨텐트가 표시될 좌표에 대한 정보 및 상기 좌표에서 표시되는 색에 대한 정보를 기반으로 컨텐트의 일 부분들(예: 픽셀들(A, B))을 화면(예: 실행 화면)의 특정 좌표들(예: 픽셀 A의 좌표(3,1) 및 픽셀 B의 좌표(7,6))에 색이 표시하도록 디스플레이(626)에 표시되도록 할 수 있다. 예를 들어, 그래픽 처리 모듈(625)는 상기 좌표들(예: 픽셀들) 별로 색을 표시하기 위해 디스플레이(626)의 백 라이트 유닛에 포함되는 구성들(예: 백 라이트유닛(backlight unit), 또는 OLED(organic light emitting diode)이 광을 출력하도록 제어(예: 전압 값 또는 전류 값을 구성들에 제공)할 수 있다. 상기 그래픽 처리 모듈(625)은 DDI(display driver integrated circuit(IC))를 포함할 수 있다.
예를 들어, 상기 제 1 프로세서(621)는 CPU(central processing unit)를 포함할 수 있다.
이하에서는 제 2 프로세서(622)에 대해서 설명한다.
다양한 실시예들에 따르면 제 2 프로세서(622)(예: 맵핑 정보 획득 모듈(623))는 컨텐트에 대한 정보를 변형하기 위한 맵핑 정보를 획득할 수 있다. 상기 맵핑 정보는 전자 장치(101)에 표시되는 컨텐트가 사용자에 의해 가상의 일 평면에서 시인되도록(또는, 컨텐트가 왜곡되어 시인되는 현상을 보상하기 위해) 컨텐트를 변형하기 위한 정보를 포함할 수 있다. 예를 들어, 상기 맵핑 정보는 후술될 호모그래피(homography) 값을 포함할 수 있다. 상기 제 2 프로세서(622)(예: 맵핑 정보 획득 모듈(623))는 획득 장치(610)에 의해 식별된 전자 장치의 형태에 대한 정보 및/또는 사용자의 시선과 연관된 정보를 제 1 프로세서(621) 및/또는 메모리(630)로부터 획득하고, 획득된 정보들을 기반으로 맵핑 정보를 획득할 수 있다. 상기 제 2 프로세서(예: 맵핑 정보 획득 모듈(623))의 맵핑 정보를 획득하는 동작에 대한 실시예는 후술한다. 상기 제 2 프로세서(622)는 상기 획득된 맵핑 정보를 메모리에 저장할 있다.다양한 실시예들에 따르면 상기 제 2 프로세서(622)(예: 컨텐트 제어 모듈(624))는 컨텐트에 대한 정보를 제어할 수 있다. 예를 들어, 상기 제 2 프로세서(622)는 상기 제 1 프로세서(621)의 요청(또는, 상기 제 1 프로세서(621)의 컨텐트의 정보에 대한 제공)에 따라서, 상기 컨텐트에 대한 정보를 처리할 수 있다. 상기 제 1 프로세서(621)에 의해 전자 장치(101)의 형태의 변경 및/또는 사용자의 시선의 변경이 식별되는 경우, 상기 제 1 프로세서(621)는 상기 제 2 프로세서(622)로 컨텐트에 대한 정보의 처리를 요청할 수 있다. 예를 들어, 상기 제 2 프로세서(622)는 상기 맵핑 정보를 기반으로 어플리케이션의 실행 및/또는 구동에 따라서 제 1 프로세서(621)에 의해 획득되는 컨텐트에 대한 정보(예: 컨텐트가 표시될 좌표)를 변형할 수 있다. 상기 컨텐트의 변형은 컨텐트가 표시되는 시각적 특성의 변형을 의미할 수 있다. 예를 들어, 상기 컨텐트의 변형은 컨텐트가 표시되는 형상의 변형, 컨텐트가 표시되는 위치의 변형, 및 컨텐트의 색의 변경을 포함할 수 있다. 예를 들어, 상기 컨텐트의 변형은 전자 장치(101)의 메모리(630)에 저장된 컨텐트(예: 컨텐트 파일)는 변경이 없되, 컨텐트가 표시되는 시각적 특성(예: 형상)이 변형되는 것을 의미할 수 있다. 일 예로, 상기 컨텐트 제어 모듈(624)은 상기 맵핑 정보에 기반하여 컨텐트의 일 부분들(예: 픽셀들)이 표시되는 좌표에 대한 정보를 획득하고, 컨텐트의 일 부분들이 표시되는 좌표를 다른 좌표로 조정 및/또는 변경할 수 있다. 상기 제 2 프로세서(622)의 컨텐트를 변형하는 동작에 대한 실시예는 후술한다. 상기 제 2 프로세서(622)는 상기 조정 및/또는 변경된 컨텐트에 대한 정보를 그래픽 처리 모듈(625)로 전달할 수 있다. 예를 들어, 상기 제 2 프로세서(622)는 상기 그래픽 처리 모듈(625)에 전기적 및/또는 동작적으로 연결된 버퍼 메모리(미도시)(예: 디스플레이(626)를 출력을 위한 버퍼 메모리(buffer memory))에 조정 및/또는 변경된 컨텐트에 대한 정보를 저장하고, 상기 그래픽 처리 모듈(625)은 상기 버퍼 메모리로부터 상기 변경 및/또는 조정된 컨텐트에 대한 정보를 획득할 수 있다. 또 예를 들어, 상기 제 2 프로세서(622)는 상기 컨텐트에 대한 정보의 변형이 필요하지 않은 경우(예: 형태에 대한 정보 및/또는 사용자의 시선과 연관된 정보가 변경되지 않은 경우, 또는 컨텐트의 변형을 위한 이벤트 조건이 만족되지 않은 경우), 상기 컨텐트에 대한 정보를 변형하지 않으면서 상기 컨텐트에 대한 정보를 상기 그래픽 처리 모듈(625)로 전달할 수도 있다.
다양한 실시예들에 따르면, 제 2 프로세서(622)(예: 컨텐트 제어 모듈(624))는 배경 처리를 위한 색을 표시하기 위한 정보를 획득할 수 있다. 예를 들어, 상기 제 2 프로세서(622)는 상기 화면(예: 실행 화면)에서 변형된 컨텐트가 표시되는 영역과는 다른 영역에 적어도 하나의 색을 표시하기 위한 색에 대한 정보를 획득할 수 있다. 상기 제 2 프로세서(622)는 상기 변경된 좌표에 대한 정보 및 적어도 하나의 색을 표시하기 위한 색에 대한 정보를 그래픽 처리 모듈(625)로 전달하고, 그래픽 처리 모듈(625)이 변경된 좌표에 대한 정보를 기반으로 변형된 컨텐트 및 적어도 하나의 색을 표시하도록 제어할 수 있다. 상기 컨텐트 제어 모듈(624)에 의한 전자 장치(600)의 컨텐트의 변형 및/또는 표시 동작, 및 적어도 하나의 색의 표시 동작은 이하에서 더 후술한다.
예를 들어, 상기 제 2 프로세서(622)는 GPU(graphic processing unit)를 포함할 수 있다.
이하에서는 그래픽 처리 모듈(625) 및 디스플레이(626)에 대해서 설명한다.
다양한 실시예들에 따르면 그래픽 처리 모듈(625)은 획득된 정보(예: 컨텐트에 대한 정보, 조정 및/또는 변경된 컨텐트에 대한 정보, 및 배경 처리를 위한 이미지 데이터)를 기반으로 디스플레이(626)가 컨텐트 및/또는 적어도 하나의 색을 표시하도록 동작할 수 있다. 예를 들어, 상술한 바와 같이, 그래픽 처리 모듈(625)은 컨텐트의 부분들(예: 픽셀들)에 대한 정보(예: 좌표 정보 및 색에 대한 정보)를 기반으로, 디스플레이(626)에 포함된 구성들(예: 백 라이트유닛(backlight unit), 또는 OLED(organic light emitting diode)이 광을 출력하도록 상기 구성들을 제어(예: 전압 값 또는 전류 값을 구성들에 제공)할 수 있다. 예를 들어, 상기 그래픽 처리 모듈(625)은 컨텐트의 픽셀들 위치에 대한 정보에 대응하는 디스플레이(626)의 구성들의 적어도 일부로, 색에 대한 정보에 대응하는(예: 색을 표시하기 위한) 전압 값 또는 전류 값을 전송할 수 있다. 상기 디스플레이(626)에 포함된 구성들(예: 백 라이트유닛(backlight unit), 또는 OLED(organic light emitting diode)은 상기 전압 값 또는 상기 전류 값에 기반하여 광을 출력하며, 이에 따라 상기 디스플레이(626)에 컨텐트에 대한 정보에 대응하는 컨텐트가 표시될 수 있다. 예를 들어, 상기 디스플레이(626)의 화면에 컨텐트의 부분들(예: 픽셀들)의 위치 별(예: 좌표 별)로 색이 표시될 수 있다. 상기 그래픽 처리 모듈(625)은 DDI(driving driver integrated circuit)을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 디스플레이(626)는 그래픽 처리 모듈의 제어에 따라서 컨텐트 및/또는 적어도 하나의 색을 표시할 수 있다. 상기 디스플레이(626)는 전술한 플렉서블 디스플레이를 포함할 수 있다. 상기 디스플레이(626)는 표시를 위한 하드웨어적인 구성들(예: 색 필터(color filter), 백 라이트유닛(backlight unit), 액정층, 및 OLED(organic light emitting diode)와 같은 구성)을 포함하는 디스플레이 패널을 포함할 수 있다.
다양한 실시예들에 다르면, 도시하지 않았으나, 전자 장치(600)는 상기 디스플레이(626)의 출력을 위한 버퍼 메모리(미도시)를 더 포함할 수 있다. 버퍼 메모리는 상기 디스플레이(626)를 통해 표시할 그래픽 데이터 일시적으로 저장하기 위한 메모리를 의미할 수 있다. 예를 들어, 상기 버퍼 메모리는 상기 제 2 프로세서(622)(예: 상기 컨텐트 제어 모듈(624))에 의해 조정 및/또는 변경된 컨텐트에 대한 정보를 저장할 수 있다. 상기 그래픽 처리 모듈(625)은 상기 버퍼 메모리에 저장된 조정 및/또는 변경된 컨텐트에 대한 정보에 기반하여, 상술한 바와 같이 상기 디스플레이(626)가 변형된 컨텐트를 표시하도록 디스플레이(626)를 제어할 수 있다. 상기 버퍼 메모리는 제 2 프로세서(622), 그래픽 처리 모듈(625), 디스플레이(626)와 전기적 및/또는 동작적으로 연결될 수 있다. 어떤 실시예에서, 버퍼 메모리는 별도의 하드웨어 구성으로 전자 장치(600)에 포함되거나, 메모리(630)의 일부 영역에 포함될 수도 있다.
다양한 실시예들에 따르면 메모리(630)는 컨텐트에 대한 정보 및 맵핑 정보를 저장할 수 있다. 또 예를 들어, 후술하겠으나 메모리(630)는 전자 장치(101)의 형태에 대한 정보 또는 사용자의 시선과 연관된 정보 중 적어도 하나의 각각에 대응하며 미리 계산된 맵핑 정보를 저장할 수 있다. 컨텐트 제어 모듈(624)은 맵핑 정보 획득 모듈(623)에 의한 실시간 맵핑 정보의 획득 없이 메모리(630)에 미리 저장된 맵핑 정보를 획득하여, 컨텐트에 대한 정보를 변경 및/또는 조정할 수 있다. 상술한 바와 같이, 상기 맵핑 정보에 기반하여 변경 및/또는 조정된 컨텐트에 대한 정보는 버퍼 메모리(미도시)에 저장될 수 있다. 한편 상술된 상기 전자 장치(101)에 포함된 프로세서(620) 및 모듈들은 상술된 바에 국한되지 않고 다양한 구성에 포함될 수 있다. 예를 들어, 제 1 프로세서(621)는 상술된 제 2 프로세서(622)와 같은 기능을 수행하도록 구현되거나, 또는 제 2 프로세서(622)가 상술된 제 1 프로세서(621)의 기능을 수행하도록 구현될 수 있다. 예를 들어, 상기 제 2 프로세서(622)에 포함된 상기 맵핑 정보 획득 모듈(623) 및 상기 컨텐트 제어 모듈(624)은 제 1 프로세서(621)에 포함될 수 있다. 예를 들어, 제 1 프로세서(621)가 맵핑 정보를 계산하고, 계산된 맵핑 정보를 기반으로 컨텐트에 대한 정보를 변경 및/또는 조정하여, 조정된 컨텐트에 대한 정보를 그래픽 처리 모듈(625)로 전달할 수 있다.
이하에서는 다양한 실시예들에 따른 전자 장치(101, 예: 600)의 동작의 일 예에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101, 예: 600)는 전자 장치(101, 예: 600)의 형태(예: 하우징들 사이의 각도) 및 전자 장치(101, 예: 600)의 사용자의 시선과 연관된 정보(예: 3D 좌표)에 기반하여 컨텐트를 변형하여 표시할 수 있다. 상기 변형되어 표시되는 컨텐트는 사용자에 의해 일 평면 상에서 시인됨으로써, 전자 장치(101, 예: 600)의 형태 및 전자 장치(101, 예: 600)의 사용자의 시선의 위치의 변경에 따라서 컨텐트가 왜곡되어 보이는 현상이 해소될 수 있다.
도 7은 다양한 실시예들에 따른 전자 장치의 동작의 일 예를 설명하기 위한 흐름도(700)이다. 다양한 실시예들에 따르면, 도 7에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 7에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 8 내지 도 9를 참조하여 도 7에 대해서 설명한다.
도 8은 다양한 실시예들에 따른 전자 장치의 사용자의 시선과 연관된 정보 및 전자 장치의 형태와 연관된 정보를 식별하는 동작의 일 예를 설명하기 위한 도면이다. 도 9는 다양한 실시예들에 따른 전자 장치의 컨텐트를 변형하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 701 동작에서 제 1 형태인 것으로 확인됨에 기반하여 제 1 컨텐트(811)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 8의 801에 도시된 바와 같이 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도(예: 180°)인 상태에서, 제 1 컨텐트(811)를 표시할 수 있다. 일 예로서, 상기 전자 장치(101)는 제 1 어플리케이션(예: 갤러리 어플리케이션)의 실행 및/또는 구동에 따라서 메모리(예: 도 6의 메모리 (630))로부터 이미지 데이터를 획득하고, 획득된 이미지 데이터를 기반으로 컨텐트로서 이미지를 포함하는 제 1 어플리케이션의 실행 화면을 표시할 수 있다. 전자 장치(101)의 컨텐트를 표시하는 동작은 도 6a 내지 도 6b에서 상술한 바(예: 디스플레이 모듈의 동작)와 같이 수행될 수 있으므로, 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 획득 장치(610)로부터 검출된 정보에 기반하여 전자 장치(101)의 형태를 확인할 수 있다. 사용자에 의해 전자 장치(101)에 포함된 제 1 하우징(812)과 제 2 하우징(813)이 힌지를 중심 축으로 회전될 수 있다. 사용자의 제어에 따라, 전자 장치(101)는 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도가 되는 경우, 획득 장치(610)(예: 적어도 하나의 센서(611))로부터 제 1 정보를 획득할 수 있다. 전자 장치(101)는 획득된 제 1 정보를 기반으로 전자 장치(101)의 형태가 제 1 형태(예: 하우징들 사이의 폴딩 각도가 제 1 각도(예: 180°))인 것을 확인할 수 있다. 또는 기재된 바에 국한되지 않고, 상기 제 1 형태인 것을 확인하는 것은 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도인 경우에 대응하도록 설정된 전자 장치(101)의 모드를 확인하는 것을 의미할 수 있다. 예를 들어, 전자 장치(101)는 식별된 폴딩 각도(예: 제 1 각도)가 제 1 각도 범위(예: 180°)에 대응함을 식별하고, 상기 제 1 각도 범위에 대응하는 전자 장치(101)의 모드(예: 오픈 모드)를 식별할 수 있다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 703 동작에서 획득 장치를 이용하여 정보를 식별하고, 705 동작에서 전자 장치(101)의 형태 및/또는 사용자의 시선의 변경을 확인할 수 있다. 예를 들어, 도 8의 801 내지 802에 도시된 바와 같이 사용자에 의해 전자 장치(101)의 제 1 하우징(812)과 제 2 하우징(813)이 힌지를 중심으로 회전됨에 따라, 전자 장치(101)의 제 1 하우징(812)과 제 2 하우징(813) 사이의 폴딩 각도가 제 1 각도에서 제 2 각도(a, 예: 140°)로 변경 될 수 있다. 이 경우 전자 장치(101)는 제 1 하우징(812)과 제 2 하우징(813) 사이의 폴딩 각도가 제 2 각도(a)로 되는 경우 획득 장치(610)(예: 적어도 하나의 센서(611))로부터 제 2 정보(예: 전기 적인 값)를 획득할 수 있다. 전자 장치(101)는 획득된 제 2 정보를 기반으로 전자 장치(101)의 형태가 제 2 형태(예: 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 2 각도(a)임)인 것을 확인할 수 있다. 또, 전자 장치(101)는 식별된 폴딩 각도가 제 2 각도 범위(예: 130° 내지 180°)에 대응함을 식별하고, 상기 제 2 각도 범위에 대응하는 전자 장치(101)의 모드(예: 하프 폴디드 모드)를 식별할 수 있다. 또 예를 들어, 전자 장치(101)는 카메라(612)를 이용하여 사용자의 일부(예: 눈 및/또는 얼굴)의 위치 및 사용자의 일부의 크기에 대한 정보를 기반으로 사용자의 시점 정보(예: 사용자의 일부에 대한 3D 좌표)를 확인할 수 있다. 상기 전자 장치(101)는 사용자의 시점 정보의 변경을 확인함으로써, 사용자의 시선의 변경 여부를 확인할 수 있다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 705 동작에서 전자 장치(101)의 형태의 변경 및/또는 사용자의 시선의 변경이 확인된 이후 , 이하에서 기술되는 707 동작 내지 711 동작을 수행할 수 있다. 이하에서는 설명의 편의를 위해 전자 장치(101)의 형태의 변경이 확인되는 경우의 전자 장치(101)의 동작의 일 예를 설명한다. 이하에서 기술되는 전자 장치(101)의 동작은 사용자의 시선의 변경이 확인되는 경우의 전자 장치(101)의 동작들에 대해서도 준용될 수 있다. 사용자의 시선의 변경이 확인되는 경우의 전자 장치(101)의 동작의 예들에 대한 실시예는 도 16 및 도 17a 내지 17c에서 후술한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 707 동작에서 전자 장치(101)의 사용자의 시점 정보를 식별할 수 있다. 예를 들어, 전자 장치(101)는 도 8의 803에 도시된 바와 같이 전자 장치(101) 사이의 폴딩 각도가 제 2 각도(a)인 상태에서 적어도 하나의 카메라를 이용하여 사용자를 촬영하고, 촬영된 사용자의 시선과 연관된 정보(예: 3차원 좌표)를 획득할 수 있다. 전자 장치(101)는 촬영된 사용자와 관련된 이미지로부터, 사용자의 얼굴의 위치에 따라 2차원 좌표를 계산하고, 사용자의 얼굴의 크기에 따라 전자 장치(101)와 사용자 사이의 거리(또는, 깊이(depth))를 계산할 수 있다. 전자 장치(101)는 계산된 2 차원 좌표와 계산된 거리를 이용하여 사용자의 시선과 연관된 3차원 좌표를 획득할 수 있다. 그 외 상기 전자 장치(101)의 사용자의 시선과 연관된 좌표 정보를 획득하는 동작은 도 6a 내지 도 6b에서 상술한 바와 같이 수행(예: 획득 장치를 이용한 전자 장치(101)의 동작)될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 709 동작에서 적어도 하나의 센서(611)에 의해 획득된 정보(예: 폴딩 각도인 제 2 각도(a)를 나타내는 제 2 정보) 및 사용자의 시점 정보를 기반으로, 상기 제 1 컨텐트(811)를 변형하여 상기 변형된 제 1 컨텐트(911)를 제 1 영역에 표시할 수 있다. 도 8의 802를 참조하면, 전자 장치(101)의 제 1 컨텐트(811)의 표시 중에 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도에서 제 2 각도(a)로 변경되는 경우, 사용자에 의해 전자 장치(101)의 디스플레이에 표시되는 제 1 컨텐트(811)가 왜곡되어 시인(821)될 수 있다. 예를 들어, 전자 장치(101)의 형태(예: 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도)가 변형되기 전에는 사용자에 의해 제 1 컨텐트(811)의 형상이 제 1 형상(예: 직사각형)으로 시인되고, 전자 장치(101)의 형태가 변경된 후 사용자에 의해 제 1 컨텐트(811)의 형상이 제 2 형상(예: 마름모)으로 왜곡되어 시인(821)될 수 있다. 일 예를 들면, 하우징들 사이의 각도가 180°인 경우에는 제 1 하우징(812)의 면과 제 2 하우징(813) 면에 의해 형성되는 동일 평면 상에 컨텐트가 표시되고, 하우징들 사이의 각도가 180°에서 다른 각도(예: a 각도)로 변경되는 경우에는 동일 평면이 아닌 제 1 하우징(812)에 대응하는 평면과 제 2 하우징(813)에 대응하는 평면 각각에 컨텐트의 일 부분들이 표시될 수 있다. 상기와 같이, 동일 평면이 아닌 다른 평면 각각에 컨텐트의 부분들이 표시됨으로써, 사용자에 의해 제 1 컨텐트(811)의 형상이 왜곡되어 시인될 수 있다. 다양한 실시예에 따른 전자 장치(101)는 전자 장치(101)의 형태가 변경되는 경우, 제 1 컨텐트(811)가 동일 평면 상에서 시인 가능하도록 제 1 컨텐트(811)를 변형하여 표시할 수 있다. 예를 들어, 제 1 컨텐트(811)가 소정의 정보(예: 후술될, 맵핑 정보(841))를 기반으로 변형되어 표시되는 경우, 사용자에 의해 제 1 컨텐트(811)가 동일 평면 상에서 표시되는 것으로 시인되는 착시 효과가 발생(905)될 수 있다. 이하에서는 전자 장치(101)의 컨텐트의 변형을 위한 맵핑 정보(841) 획득 및 변형된 컨텐트를 표시하는 동작에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 컨텐트의 변형을 위한 맵핑 정보(841)를 획득할 수 있다. 예를 들어, 전자 장치(101)(예: 맵핑 정보 획득 모듈(623))은 도 8의 804에 도시된 바와 같이 적어도 하나의 센서(611)로부터 획득된 형태에 대한 정보(832) (예: 하우징들 사이의 각도에 대한 정보)와 사용자의 시선과 연관된 정보(831)를 기반으로 컨텐트의 변형을 위한 맵핑 정보(841)(예: 호모그래피(homography) 값(H))를 계산할 수 있다. 상기 맵핑 정보(841)는 일 평면 상의 좌표를 다른 평면 상의 좌표로 맵핑하기 위한 호모그래피 값(H)일 수 있다. 예를 들어, 맵핑 정보(841)는 현재 제 1 컨텐트(811)가 표시되는 평면들(예: 제 1 하우징(812)에 대응하는 디스플레이의 면 및 제 2 하우징(813)에 대응하는 디스플레이의 면) 상에서 가상의 일 평면 상으로 맵핑하기 위한 정보일 수 있다. 예를 들어, 상기 맵핑 정보(841)는 제 1 컨텐트(811)가 시인될 가상의 일 면에 연관된 정보일 수 있다. 예를 들어 전자 장치(101)는 도 9의 901에 도시된 바와 같이 제 1 컨텐트가 시인될 가상의 일 평면(913)에 대한 정보 및 사용자의 시선과 연관된 정보(831)를 기반으로 호모그래피 값(H)을 계산할 수 있다. 예를 들어, 상기 호모그래피 값(H)은 가상의 일 평면(913)과 연관된 값일 수 있다. 예를 들어, 전자 장치(101)는 상기 형태에 대한 정보와 사용자의 시선과 연관된 정보를 기반으로 상기 컨텐트가 시인될(또는 컨텐트를 맵핑할) 가상의 일 평면(913)을 결정할 수 있다. 전자 장치(101)는 상기 결정된 일 평면(913)에 수직인 지점(912)으로 사용자의 시선에 대한 정보(910)(예: 사용자의 시선과 연관된 좌표)를 변경하기 위한 호모그래피 값(H)을 맵핑 정보로서 계산할 수 있다. 상기 호모그래피 값(H)은 지정된 수식을 이용하여 전자 장치(101)에 의해 계산될 수 있다. 상기 전자 장치(101)의 지정된 수식을 이용한 호모그래피 값(H)을 계산하는 동작의 다양한 실시예에 대해서는, 도 10 내지 도 13에서 후술한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620)의 컨텐트 제어 모듈(624))는 컨텐트를 변형하여 변형된 컨텐트를 표시할 수 있다. 전자 장치(101)는 맵핑 정보(841)(예: 호모그래피 값(H))를 이용하여 컨텐트를 변형하고, 변형된 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 제 1 형태(예: 하우징들 사이의 각도가 180°)인 경우에 표시하던 제 1 컨텐트(811)에 대한 정보를 맵핑 정보(841)로 변경(또는 조정)할 수 있다. 전자 장치(101)는 도 9의 902에 도시된 바와 같이 제 1 컨텐트(811)의 일 부분들(예: 픽셀들)의 좌표들(예: 제 1 좌표(921))에 맵핑 정보(841)를 반영하여, 변경된 제 1 컨텐트(911)의 일 부분들(예: 픽셀들)에 대한 좌표들(예: 제 2 좌표(922))을 획득할 수 있다. 예를 들어, 전자 장치(101)는 제 1 컨텐트(811)의 일 픽셀이 표시될 제 1 좌표(x,y)(921)에 맵핑 정보(841)를 반영하여, 제 2 좌표(x',y')(922)을 계산(예: 제 1 좌표의 행렬 값에 후술될 호모 그래피 행렬 값을 행렬 연산)할 수 있다. 일 예로, 상기 전자 장치(101)는 제 1 컨텐트(811)의 외곽선에 위치하는 픽셀들의 좌표(예: (0,0), (0,y_max), (x_max,y_max), 및 (x_max,0))에 맵핑 정보(841)를 반영하여, 변형된 컨텐트(911)에 포함되는 픽셀들에 대한 좌표들을 계산할 수 있다. 상기 전자 장치(101)는 상기 일 픽셀의 좌표를 다른 좌표로 계산하는 동작과 같이, 다른 나머지 픽셀들의 좌표를 다른 좌표로 계산할 수 있다. 상기 전자 장치(101)는 변형된 제 1 컨텐트(911)의 일부들(예: 픽셀 들)에 대한 색에 대한 정보(예: 색상 값, 채도 값, 및 명도 값, 또는 HSV, RGB와 같은 색 공간의 값들에 대한 정보)를 식별할 수 있다. 예를 들어, 상기 전자 장치(101)는 변형 전 제 1 컨텐트(811)의 픽셀들에 대한 색에 대한 정보를 변형 후 제 1 컨텐트(911)의 픽셀들에 대한 색에 대한 정보로 식별할 수 있다. 또 예를 들어, 상기 전자 장치(101)는, 맵핑 정보(841)를 기반으로 계산된 컨텐트의 일부들(예: 픽셀들)의 위치(예: 좌표) 사이에 빈 픽셀(예: 색에 대한 정보가 설정되지 않은 픽셀, 또는 제 1 컨텐트(811)의 변경된 좌표의 픽셀들이 위치되지 않는 좌표의 픽셀)가 식별되는 경우(예: 컨텐트의 면적이 넓어지는 경우), 상기 컨텐트의 일부들의 색에 대한 정보들을 보간하여 빈 컨텐트(예: 빈 픽셀)에 색에 대한 정보를 식별할 수 있다. 또 예를 들어, 전자 장치(101)는 맵핑 정보(841)를 기반으로 변형된 컨텐트의 일부(예: 픽셀들)의 위치(예: 좌표)가 같게(또는, 중복)되는 경우(예: 컨텐트의 면적이 축소되는 경우), 위치가 같은 컨텐트의 일부들(예: 픽셀들)의 색에 대한 정보를 기반으로 특정 위치의 색에 대한 정보를 식별(예: 색에 대한 정보의 평균 값을 획득)할 수 있다. 예를 들어 상술한 전자 장치(101)의 맵핑 정보(841)에 기반한 제 1 컨텐트(811)의 변형 시 변형된 컨텐트(911)의 색에 대한 정보를 식별하는 동작에는 EWA(elliptical weighted average)와 같은 보간 법이 이용될 수 있다.
다양한 실시예들에 따르면 전자 장치(101)는 상기 전자 장치(101)의 형태가 제 2 형태(예: 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 2 각도(a)임)인 상태에서, 변경된 제 1 컨텐트에 대한 정보(예: 제 2 좌표(922)에 대한 정보 및 제 2 좌표(922)의 색에 대한 정보)를 기반으로 디스플레이에 변형된 제 1 컨텐트(911)를 표시할 수 있다. 상기 제 1 상기 변형된 컨텐트(911)는 디스플레이(또는, 화면)의 제 1 영역에 표시되며, 상기 디스플레이(또는, 화면)은 제 1 영역과는 다른 나머지 영역(제 2 영역)을 포함할 수 있다. 상기 변형된 제 1 컨텐트(911)는 제 2 형태(예: 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 2 각도(a)임) 상태인 전자 장치(101)에 표시될 때 사용자에 의해 가상의 동일 평면 상에서 표시되는 것으로 시인될 수 있다. 이에 따라, 제 1 컨텐트(811)가 왜곡되어 시인되는 현상이 해소될 수 있다. 또 상기 제 1 컨텐트(811)가 3D 그래픽 오브젝트(예: 증강 현실 컨텐트)를 포함하는 경우, 사용자에 의해 홀로그램과 같이 시인될 수 있다. 전자 장치(101)의 변형된 제 1 컨텐트(911)를 표시하는 동작은 도 6a 내지 도 6b에서 상술한 바와 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 전자 장치(101)는 변형된 제 1 컨텐트(911)의 일부를 크롭(crop)하여 표시할 수 있다. 예를 들어, 전자 장치(101)가 제 1 컨텐트(811)를 변형하는 경우, 상기 변형된 제 1 컨텐트(911)의 일부의 좌표가 디스플레이(또는, 화면) 바깥에 위치될 수 있다. 상기 전자 장치(101)는 상기 변형된 제 1 컨텐트(911)의 일부를 크롭(crop)할 수 있다. 상기 크롭된 제 1 컨텐트(911)의 일부는 상기 그래픽 처리 모듈(625)에 의해 처리되지 않을 수 있다. 예를 들어, 상기 변형된 제 1 컨텐트가 표시되는 경우 상기 바깥에 위치되는 제 1 컨텐트(811)의 일부는 디스플레이(또는, 화면)에 표시되지 않을 수 있다. 상술한 크롭(crop) 동작은 표시되는 컨텐트의 일부에 대한 정보(예: 좌표 정보)가 처리되지 않도록 제어하는 동작을 포함하는 의미로 해석될 수 있다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 711 동작에서 제 1 영역과는 다른 제 2 영역(931)에 배경 처리를 위하여 설정된 적어도 하나의 색(예: 후술될 전자 장치(101)의 베젤과 연관된 색)을 표시할 수 있다. 도 9의 903을 참조하면 제 1 컨텐트(811)가 변형되는 경우, 변형된 제 1 컨텐트(911)의 적어도 일부(예: 변형된 제 1 컨텐트(911)의 상단 영역, 또는 최상위 열의 픽셀들)의 면적(a1)은 변형되기 전의 제 1 컨텐트(811)의 적어도 일부(예: 제 1 컨텐트(811)의 상단 영역, 또는 최상위 열의 픽셀들)의 면적(a2)보다 작을 수 있다. 예를 들어, 상기 전자 장치(101)의 하우징들(812, 및 813) 사이의 각도가 작아지는 경우(예: 180°에서 130°로 변경), 제 1 컨텐트(811)의 상단 영역이 결정된 가상의 평면에 맵핑됨에 따라서 제 1 컨텐트(811)의 상단 영역의 면적이 작아지도록 상기 제 1 컨텐트(811)의 형상이 변형될 수 있다.제 1 컨텐트(811)의 면적이 작아지는 경우, 제 1 컨텐트(811)의 면적이 작아진 부분만큼 제 1 컨텐트(811)의 일부(예: 제 2 영역(931)에 대응하는 부분)가 디스플레이(예: 626)(또는 화면) 상에 표시되지 않을 수 있다. 상기 전자 장치(101)는 도 9의 904에 도시된 바와 같이 디스플레이의 제 1 영역에 제 1 컨텐트(811)를 표시하면서 상기 제 2 영역(931)에 배경 처리를 위한 적어도 하나의 색을 표시할 수 있다. 상기 배경 처리의 의미는 상기 컨텐트가 표시되는 제 1 영역에 대한 시각적 몰입도가 향상되도록 제 1 컨텐트(811)가 표시되는 나머지 제 2 영역(931)에 컨텐트와는 다른 시각적 요소를 표시하는 것을 의미할 수 있다. 예를 들어, 전자 장치(101)는 제 1 어플리케이션의 실행 화면의 제 1 영역 상에 제 1 어플리케이션(예: 갤러리 어플리케이션)에 의해 획득된 이미지를 변형하여 변형된 이미지를 표시하고, 제 1 어플리케이션의 실행 화면의 제 2 영역(931) 상에 배경 처리를 위한 적어도 하나의 색을 표시할 수 있다. 한편 상술한 바에 국한되지 않고, 변형된 제 1 컨텐트(911)의 일부 면적(a1)이 변형되기 전의 제 1 컨텐트(811)의 면적(a2)보다 크도록 상기 제 1 컨텐트(811)가 변형될 수도 있다. 예를 들어, 상기 전자 장치(101)의 하우징들(812, 및 813) 사이의 각도가 커지는 경우(예: 130°에서 180°로 변경), 상기 제 1 컨텐트(811)의 상단 영역의 면적이 커지도록 상기 제 1 컨텐트(811)가 변형될 수 있다. 이때, 제 1 컨텐트(811)가 변형된 이후 상기 배경 처리를 위한 적어도 하나의 색이 표시되는 제 2 영역(931)의 면적은 작아질 수 있다. 이하에서는 전자 장치(101)의 제 2 영역(931)에 적어도 하나의 색을 표시하기 위한 동작의 다양한 실시예 에 대해서 더 설명한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 제 1 컨텐트(811)와 변형된 제 1 컨텐트(911)를 비교하여 적어도 하나의 색을 표시하기 위한 제 2 영역(931)을 확인할 수 있다. 예를 들어, 전자 장치(101)는 도 9의 902에 도시된 바와 같이 제 1 컨텐트(811)가 변형된 후의 변형된 제 1 컨텐트(911)의 형상(a2)과 상기 제 1 컨텐트(811)가 변형되기 전의 제 1 컨텐트(811)의 형상(a1)을 비교하여 제 2 영역(931)을 확인할 수 있다. 일 예로서, 전자 장치(101)는 제 1 컨텐트(811)가 변형되기 전 제 1 컨텐트(811)의 외곽 선의 좌표에 대한 정보와 제 1 컨텐트(811)가 변형된 후 변형된 제 1 컨텐트(911)의 외곽 선의 좌표에 대한 정보를 비교할 수 있다. 전자 장치(101)는 상기 비교 결과에 기반하여, 도 9의 904에 도시된 바와 같이 변형된 제 1 컨텐트(911)의 외곽 선의 좌표 바깥의 영역의 좌표에 대한 정보를 식별하고, 상기 바깥의 영역을 제 2 영역(931)으로 확인할 수 있다. 전자 장치(101)는 확인된 제 2 영역(931)에 배경 처리를 위한 적어도 하나의 색을 표시할 수 있다. 또 예를 들어 상기 전자 장치(101)는 배경 처리를 위한 색을 표시하면서, 변형된 제 1 컨텐트(911)의 일부의 위치(예: 좌표)가 디스플레이(또는, 화면)의 바깥에 위치되는 경우 상기 변형된 제 1 컨텐트(911)의 일부를 크롭(crop)할 수 있다. 상기 크롭된 변형된 제 1 컨텐트(911)의 일부는 디스플레이(또는, 화면)에 표시되지 않을 수 있다. 이하에서는, 전자 장치(101)의 제 2 영역(931)에 표시될 적어도 하나의 색을 설정하는 동작에 대해서 더 설명한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 다양한 정보를 기반으로 배경 처리를 위한 적어도 하나의 색을 설정할 수 있다.
예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 전자 장치(101)에 포함된 일 구성(예: 베젤)의 색을 상기 배경 처리를 위한 적어도 하나의 색으로 설정할 수 있다. 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 전자 장치(101)에 포함된 구성들에 대한 색을 미리 저장하고, 배경 처리를 위한 적어도 하나의 색으로서 상기 미리 저장된 색(예: 베젤의 색)을 확인할 수 있다. 예를 들어, 상기 전자 장치(101)는 제 1 하우징(812)에 형성된 제 1 베젤 및 상기 제 2 하우징(813)에 형성된 제 2 베젤을 포함할 수 있다. 사용자가 플렉서블 디스플레이를 응시하는 경우, 상기 제 1 베젤과 상기 제 2 베젤이 상기 컨텐트의 주변 영역에서 사용자에 의해 시인될 수 있다. 상기 전자 장치(101)는 도 9의 904에 도시된 바와 같이 전자 장치(101)에 포함된 상기 제 1 베젤의 색 또는 상기 제 2 베젤의 색 중 적어도 하나를 제 2 영역(931)에 표시함으로써, 제 1 영역에 표시되는 변형된 컨텐트에 대한 착시 효과를 향상시킬 수 있다. 상기 베젤들의 색과 상기 제 2 영역(931)의 색이 동일한 색으로 시인됨으로써, 상기 제 1 영역에 표시되는 컨텐트에 대한 사용자의 시각적 몰입도가 향상될 수 있다. 또 예를 들어, 전자 장치(101)는 식별된 전자 장치(101)에 포함된 구성들에 대한 색을 기반으로 배경 처리를 위한 적어도 하나의 색을 설정할 수 있다. 일 예로, 전자 장치(101)는 구성들에 대한 색과 유사한 색을 배경 처리를 위한 색으로 식별할 수 있다. 예를 들어, 상기 유사한 색은 상기 확인된 색과 연관된 값들(예: 색상 값, 채도 값, 및 명도 값, 또는 HSV, RGB와 같은 색 공간의 값들)로부터 지정된 범위 내의 값들을 가지는 색을 포함할 수 있다. 다른 예로, 전자 장치(101)는 구성들에 대한 색을 기반으로 그라데이션(gradation) 패턴(pattern), 구성들에 대한 색을 가지는 지정된 무늬(예: 도트(dot))가 연속되는 패턴과 같은 다양한 종류의 패턴을 획득하고, 획득된 패턴을 제 2 영역(931)의 배경 처리를 위해 표시할 수도 있다.
또 예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 컨텐트와 연관된 색을 상기 배경 처리를 위한 적어도 하나의 색으로 설정할 수 있다. 일 예로서, 전자 장치(101)는 제 1 컨텐트(811)의 색을 식별하고, 복수 개의 색들 중 식별된 색과 상이한 색을 배경 처리를 위한 적어도 하나의 색으로 식별 할 수 있다. 상기 상이한 색은 상기 식별된 색과 보색의 관계에 있는 색일 수 있다. 전자 장치(101)는 제 1 컨텐트(811)로부터 복수 개의 색들이 식별되는 경우, 복수 개의 색들 연관된 값(예: 명도 값, 채도 값, 및 색상 값, 또는 HSV, RGB와 같은 색 공간의 값들)의 평균 값을 계산하고 계산된 평균 값에 대응하는 색과 상이한 색을 배경 처리를 위한 적어도 하나의 색으로 식별할 수 있다. 다른 예로, 전자 장치(101)는 제 1 컨텐트(811)의 색을 식별하고, 복수 개의 색들 중 식별된 색과 동일 또는 유사한 색을 배경 처리를 위한 적어도 하나의 색으로 식별 할 수도 있다.한편 상기 기재된 바와 같이 전자 장치(101)(예: 적어도 하나의 프로세서(620))가 실시간으로 제 1 컨텐트(811)의 변형 및 적어도 하나의 색을 표시하는 동작을 수행하지 않고, 미리 저장된 정보(예: 미리 저장된 호모그래피 값(H))를 기반으로 변형된 제 1 컨텐트(911) 및 적어도 하나의 색을 표시할 수 있다. 이에 대한 다양한 실시예는, 도 10 내지 도 13에서 후술한다.
또 한편, 상기 기재된 바에 국한되지 않고, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 컨텐트가 시인되도록 하기 위한 가상의 면으로서 평면이 아닌 다양한 종류의 면을 식별할 수 있다. 상기 다양한 종류의 면은 삼각 기둥, 원기둥 형의 면, 및 구 형의 면과 같은 다면체의 면을 포함할 수 있다. 이하에서는 설명의 편의를 위하여 특별한 언급이 없다면, 컨텐트를 변형하는 동작에 대해서 컨텐트가 가상의 평면 상에 시인되도록 전자 장치(101)가 컨텐트를 변형하는 동작을 예로 들어 설명한다.
이하에서는 다양한 실시예들에 따른 전자 장치(101, 예: 600)의 동작의 다른 예에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101, 예: 600)는 전자 장치(101, 예: 600)의 형태에 대한 정보 및 사용자의 시선과 연관된 정보를 기반으로 제 1 컨텐트의 변형을 위한 맵핑 정보를 계산할 수 있다. 예를 들어, 전자 장치(101, 예: 600)는 전자 장치의 형태에 대한 정보 및 사용자의 시선과 연관된 정보를 기반으로 맵핑 정보를 계산하기 위한 값을 획득하고, 획득된 값을 맵핑 정보를 계산하기 위한 미리 결정된 수식에 대입하여 맵핑 정보를 식별할 수 있다.
도 10은 다양한 실시예들에 따른 전자 장치의 동작의 다른 예를 설명하기 위한 흐름도(1000)이다. 다양한 실시예들에 따르면, 도 10에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 10에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 11 내지 도 13을 참조하여 도 10에 대해서 설명한다.
도 11은 다양한 실시예들에 따른 전자 장치의 맵핑 정보를 계산하기 위한 동작의 일 예를 설명하기 위한 도면이다. 도 12는 다양한 실시예들에 따른 전자 장치의 맵핑 정보를 계산하기 위한 값을 획득하는 동작의 일 예를 설명하기 위한 도면이다. 도 13은 다양한 실시예들에 따른 전자 장치의 획득된 값 및 지정된 수식을 이용하여 맵핑 정보를 계산하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1001 동작에서 형태에 대한 정보를 식별할 수 있다. 예를 들어, 전자 장치(101)는 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도(예: 140°)인 경우, 적어도 하나의 센서(611)로부터 제 1 정보를 획득하고, 획득된 제 1 정보에 기반하여 전자 장치(101)의 형태(예: 제 1 하우징(812)과 제 2 하우징(813) 간 폴딩 각도가 제 1 각도임)를 식별할 수 있다. 또 전자 장치(101)는 식별된 폴딩 각도가 제 1 각도 범위(예: 130° 내지 180°)에 대응함을 식별하고, 상기 제 1 각도 범위에 대응하는 전자 장치(101)의 모드(예: 오픈 모드)를 식별할 수 있다. 전자 장치(101)의 1001 동작은 상술한 전자 장치(101)의 701 동작 내지 705 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1003 동작에서 획득 장치(610)에 의해 획득되는 정보를 식별할 수 있다. 예를 들어, 전자 장치(101)는 적어도 하나의 카메라(612)를 이용하여 사용자를 촬영하고, 촬영된 사용자의 시점 정보(예: 사용자의 일부(예: 얼굴 및/또는 눈)의 3차원 좌표)를 획득할 수 있다. 전자 장치(101)의 1003 동작은 상술한 전자 장치(101)의 707 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1005 동작에서 형태에 대한 정보 또는 사용자의 시선과 연관된 정보 중 적어도 하나를 기반으로, 컨텐트를 맵핑할 가상의 평면을 결정 할 수 있다. 예를 들어, 맵핑 정보 획득 모듈(623)(예: 맵핑 평면 결정 모듈(1101))은 도 11에 도시된 바와 같이 획득된 전자 장치(101)의 형태(예: 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도임)에 대한 정보(831) 및 사용자의 시선과 연관된 정보(832)(예: 3차원 좌표)에 기반하여 제 1 컨텐트를 맵핑하기 위한 가상의 평면을 결정할 수 있다. 전자 장치(101)의 709 동작에서 상술한 바와 같이, 전자 장치(101)는 전자 장치(101)의 형태가 변형됨에 따라 제 1 컨텐트의 형상이 왜곡되어 시인되는 경우, 제 1 컨텐트가 가상의 평면 상에서 시인되는 것처럼 착시 효과를 주기 위한 동작을 수행할 수 있다. 전자 장치(101)는 맵핑 정보의 계산을 위해 상기 제 1 컨텐트가 시인되도록 하기 위한 가상의 평면을 결정할 수 있다. 이하에서는 전자 장치(101)의 가상의 평면을 결정하는 동작에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 사용자의 시선 방향에 수직이거나 또는 수직에 가까운 가상의 평면을 제 1 컨텐트가 시인되도록 하기 위한(또는, 제 1 컨텐트를 맵핑(mapping)하기 위한) 가상의 평면으로 결정할 수 있다. 상기 사용자의 시선 방향은 3차원 좌표계(예: 월드 좌표계)에서 식별된 사용자의 시선과 연관된 좌표로부터 전자 장치(101)와 연관된 특정 지점으로의 방향을 의미할 수 있다. 상기 특정 지점은 도 12의 1202에 도시된 바와 같이 전자 장치(101)의 중심 점(1221)이 될 수 있다. 다만 기재된 바에 국한되지 않고 상기 특정 지점은 전자 장치(101)의 형태 및 사용자의 시선과 연관된 좌표를 기반으로 다양하게 설정될 수 있다. 다만 이하에서는 설명의 편의를 위해서 특정 지점은 전자 장치(101)의 중심 점(1221)인 것으로 설명한다. 전자 장치(101)는 3차원 좌표계(예: 월드 좌표계)에서 전자 장치(101)의 중심 점(1221)의 좌표(x,y,z)를 식별하고, 상기 식별된 중심 점(1221)의 좌표(x,y,z)와 식별된 상기 사용자의 시선과 연관된 좌표(1211)(예: X,Y,Z)를 이용하여 상기 사용자의 시선 방향을 나타내는 정보(예: 3차원 벡터, 또는 3차원 행렬)를 획득할 수 있다. 상기 중심 점(1221)의 좌표(x,y,z)는 카메라(612)의 위치를 원점(0,0,0)으로 하여 전자 장치(101)의 형태에 대한 정보(831)(예: 하우징들 사이의 각도(a)에 대한 정보)를 이용하여 계산될 수 있다. 이때, 전자 장치(101)는 중심 점(1221)의 좌표(x,y,z)를 더 정확하게 계산하기 위해서, 카메라(612)의 위치를 원점(0,0,0)으로 하여 하우징들 사이의 각도(a) 및 제 1 하우징(812)에 구비되는 카메라(612)에 의해 촬영되는 제 2 하우징(813)의 끝 지점의 좌표를 더 이용하여 계산될 수 있다. 좌표를 계산하는 일반적인 계산에 대한 설명은 생략한다. 이하에서는 전자 장치(101)의 시선 방향에 수직인 가상의 평면을 결정하는 동작의 예들에 대해서 설명한다.
예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 형태에 대한 정보(831)(예: 하우징들 사이의 각도에 대한 정보)를 기반으로 복수 개의 가상의 평면들(예: 1222, 1223)을 식별하고, 상기 사용자의 시선 방향을 나타내는 정보를 기반으로 복수 개의 가상의 평면들 중에서 컨텐트가 시인되도록 하기 위한 일 가상의 평면을 선택할 수 있다. 일 예로서, 전자 장치(101)는 도 12의 1201 내지 1202에 도시된 바와 같이 제 1 하우징(812)에 대응하는 가상의 제 1 평면(1223) 과 제 2 하우징(813)에 대응하는 가상의 제 2 평면(1222)을 식별할 수 있다. 전자 장치(101)는 상기 사용자의 시선과 연관된 좌표(1211)을 기반으로 제 1 평면(1223)과 제 2 평면(1222) 중에서 사용자의 시선과 이루는 각도가 수직에 더 가까운 평면(예: 1222)을 식별할 수 있다. 전자 장치(101)는 3차원 좌표 계에서 지정된 지점(예: 카메라(612)의 위치)을 영점으로 하여, 제 1 하우징(812)에 대응하는 가상의 제 1 평면(1223)에 대한 정보(예: 3차원 좌표에 대한 정보, 3차원 벡터에 대한 정보) 및 제 2 하우징(813)에 대응하는 가상의 제 2 평면(1222)에 대한 정보를 식별할 수 있다. 전자 장치(101)는 제 1 평면(1223)에 대한 정보 및 제 2 평면(1222)에 대한 정보와 사용자의 시선과 연관된 좌표(1211)을 비교하여, 상기 비교 결과에 기반하여 사용자의 시선과 수직에 더 가까운 일 평면을 가상의 평면으로 결정할 수 있다. 예를 들어, 전자 장치(101)는 가상의 평면들 각각에 대한 좌표 정보와 사용자의 시선과 연관된 3 차원 좌표(1211)로부터 전자 장치(101)의 중심 점(1221)으로의 방향(이하, 사용자의 시선 방향)에 대한 정보(예: 벡터 행렬)을 비교할 수 있다. 전자 장치는 상기 비교 결과에 기반하여 상기 가상의 평면과 상기 사용자의 시선 방향이 이루는 각도가 수직에 더 근접한 평면(예: 1222)을 식별할 수 있다. 상기와 같이 가상의 평면들 중 사용자의 시선 방향과 수직을 이루는 가상의 평면이 결정됨에 따라서, 결정된 가상 평면 상으로 맵핑되는 컨텐트의 변형이 적어짐으로써 변형이 크지 않은 컨텐트를 사용자에게 제공할 수 있게 된다. 예를 들어 도 12의 1202에 도시된 바와 같이, 사용자의 시선과 연관된 좌표(1211)이 가상의 제 2 평면(1223)에 수직인 지점(1225)으로 보상되는 경우 보다, 가상의 제 1 평면(1221)에 수직인 지점(1224)으로 보상되는 정도가 작음으로써, 이에 기반하여 획득되는 맵핑 정보(예: 호모그래피 값(H))에 의해 제 1 컨텐트의 변형의 정도가 작아질 수 있다. 상기 기재된 바에 국한되지 않고 전자 장치(101)는 하우징들의 면들에 대응하는 복수 개의 가상의 평면들을 식별하는 동작 외에도, 다양한 전자 장치(101)는 전자 장치(101)의 형태에 대한 정보(831)를 기반으로 복수 개의 가상의 평면들을 식별할 수도 있다.
또 예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 상기 사용자의 시선 방향을 나타내는 정보를 기반으로 사용자의 시선 방향과 수직인 일 가상의 평면을 결정할 수 있다.
또 예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 전자 장치(101)의 형태에 대한 정보(831)를 기반으로 각 하우징들의 끝 지점에 대한 좌표를 연결하는 일 가상의 평면을 결정할 수도 있다.
다양한 실시예들에 따르면 전자 장치(101)는 1007 동작에서 사용자의 시선과 연관된 정보 및 가상의 평면에 대한 정보를 기반으로, 맵핑 정보를 계산 할 수 있다. 예를 들어, 전자 장치(101)는 사용자의 시선과 연관된 정보(832)와 가상의 평면에 대한 정보를 이용하여 맵핑 정보를 계산하기 위한 적어도 하나의 값을 식별하고, 식별된 값을 맵핑 정보를 계산하기 위한 지정된 수식에 대입하여 맵핑 정보를 확인할 수 있다. 이하에서는 지정된 수식 및 전자 장치(101)의 맵핑 정보를 계산하기 위한 적어도 하나의 값을 식별하는 동작을 설명한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 지정된 [수학식 1]을 이용하여 맵핑 정보로서 호모그래피 값(H)을 계산할 수 있다. 상술된 바와 같이 호모그래피 값(H)은 일 평면 상의 좌표를 다른 평면(예: 가상의 평면) 상의 좌표로 맵핑하기 위한 평면들 간의 관계를 나타내기 위한 값일 수 있다. 상기 호모그래피 값(H)은 컨텐트가 가상의 평면에 시인되도록 컨텐트를 변형하기 위한 값으로 이용될 수 있다.
아래의 [수학식 1]을 참조하면, 호모그래피 값(H)은 3차원 공간상의 점들을 2차원 평면으로 프로젝션(projection)하기 위한 카메라(612) 모델의 Intrinsic parameter를 나타내는 K 행렬 및 3 차원 공간 상의 점들의 특정 지점(예: 전자 장치(101)의 중심 점)으로의 병진 이동과 결정된 가상의 평면(예: 1222)에 수직인 지점으로 회전 이동하기 위한 행렬인 변환 행렬(Transform 행렬)(예: Tab 행렬)의 연산에 의해 계산될 수 있다. 아래의 [수학식 1]은 호모그래피 값(H)의 정의를 이용하여, 호모그래피 값(H)을 계산하기 위해 미리 구현된 식일 수 있다.
Figure PCTKR2021007917-appb-M000001
아래의 [수학식 2]를 참조하면, 호모그래피 값(H)을 계산하기 위한 상기 [수학식 1]에서 연산되는 K 행렬의 값들은 미리 결정된 값일 수 있다.
Figure PCTKR2021007917-appb-M000002
따라서, 전자 장치(101)(예: 도 11의 맵핑 정보 획득 모듈(623)에 포함된 병진/회전 계산 모듈(1102))는 [수학식 1]에서 연산되는 K 행렬의 값들 이외의 변환 행렬(예: Tab 행렬)의 값들을 계산하기 위해, 결정된 가상의 평면(예: 1222)에 대한 정보와 사용자의 시선과 연관된 좌표를 이용할 수 있다. 아래의 [수학식 3]을 참조하면, 전자 장치(101)는 변환 행렬(예: Tab 행렬)의 값들을 계산하기 위해, 특정 지점(예: 전자 장치(101)의 중심 점) 방향으로의 병진 이동 행렬 d 및 각 축 방향으로의 회전을 나타내는 행렬 R을 식별할 수 있다.
Figure PCTKR2021007917-appb-M000003
Figure PCTKR2021007917-appb-I000001
Figure PCTKR2021007917-appb-I000002
예를 들어 전자 장치(101)(예: 도 11의 맵핑 정보 획득 모듈(623)에 포함된 병진/회전 계산 모듈(1102))는, 도 12의 1203에 도시된 바와 같이 제 2 하우징(813)에 대응하는 가상의 제 2 평면(1222)이 결정되는 경우, 특정 지점(예: 전자 장치(101)의 중심 점(1221))에 대한 좌표(x,y,z)와 사용자의 시선과 연관된 좌표(1211)을 비교하여 병진 이동 행렬 d를 식별할 수 있다. 전자 장치(101)는 도 13의 1301 및 1303에 도시된 바와 같이 특정 지점(예: 전자 장치(101)의 중심점)에 대한 좌표(1222)에서 상기 사용자의 시선과 연관된 좌표(1211)을 차감하여 병진 이동 행렬 d로서 T1 행렬의 값 및 T3 행렬의 값을 식별할 수 있다. 또 전자 장치(101)(예: 도 11의 맵핑 정보 획득 모듈(623)에 포함된 병진/회전 계산 모듈)는, 도 12의 1203에 도시된 바와 같이 제 2 평면(1222)에 대한 정보와 상기 사용자의 시선 방향(1231)에 대한 정보(예: 사용자의 시선과 연관된 좌표(1211)로부터 중심 점(1221)의 좌표 방향으로의 벡터 또는 행렬)를 비교하여, 제 2 평면(1222)에 대한 각축에 대한 각도(예: 1232)인 ψ(yaw 값), θ(pitch값) 및 Ф (roll값)을 식별할 수 있다. 전자 장치(101)는 도 13의 1302에 도시된 바와 같이 ψ(yaw 값), θ(pitch값) 및 Ф (roll값)을 이용하여 가상의 평면(예: 1222)에 수직인 지점으로 이동하기 위한 ψ(yaw 값), θ(pitch값) 및 Ф (roll값)을 계산(예: pitch의 경우 90°-θ)하고, 계산된 각도 값들을 상기 T2 행렬에 대입하여 T2 행렬의 값을 식별할 수 있다.
예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 호모그래피 값(H)을 계산하기 위한 지정된 수식(예: [수학식 1])의 연산을 위해, 시선과 연관된 정보(832)를 기반으로 식별되는 제 1 값(예: 병진 이동 행렬 d에 대한 행렬 T1 및 행렬 T2의 값)과 가상 평면(예: 1222)에 대한 정보와 시선과 연관된 정보(832)를 기반으로 식별되는 제 2 값(예: 회전 이동 행렬 R의 값)을 계산할 수 있다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 는 1009 동작에서 맵핑을 위한 맵핑 정보를 식별 할 수 있다. 예를 들어, H 연산 모듈(1103)은 시선과 연관된 정보(832)를 기반으로 식별되는 제 1 값(예: 행렬 T1 및 행렬 T2의 값) 및 가상 평면에 대한 정보와 시선과 연관된 좌표를 기반으로 식별되는 제 2 값(예: 회전 이동 행렬 R의 값)을 획득하고, 획득된 제 1 값 및 제 2 값을 [수학식 1]에서 설명된 지정된 수식에 대입하여 호모그래피 값(H)을 식별할 수 있다.
또 다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 는 제 1 하우징(812)과 제 2 하우징(813) 사이의 복수 개의 각도들 별로 1001 동작 내지 1005 동작을 수행하여 계산된 맵핑 정보들을, 형태에 대한 정보(831) 및 사용자의 시선과 연관된 정보(832)와 연관된 형태로 메모리(에: 도 6d 및/또는 도 11의 메모리(630))에 저장할 수 있다. 예를 들어, 전자 장치(101)는 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도이고 사용자의 시선과 연관된 좌표가 제 1 좌표인 경우 계산되는 맵핑 정보를, 제 1 각도와 제 1 좌표와 연관된 형태로 맵핑 정보를 저장할 수 있다. 전자 장치(101)는 제 1 하우징(812)과 제 2 하우징(813) 사이의 복수 개의 각도들(제 2 각도, ... , 제 n 각도)이고 사용자의 시선과 연관된 복수 개의 좌표들(제 2 좌표, ..., 제 n 좌표)인 경우들 각각에서 계산되는 맵핑 정보들을, 상기 하우징들 사이의 각도에 대한 정보와 사용자의 시선과 연관된 좌표에 대한 정보와 연관되도록 저장함으로써, 소정의 룩업 테이블을 저장할 수 있다. 전자 장치(101)는 미리 저장된 맵핑 정보들 중 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도이고 사용자의 시선과 연관된 좌표가 제 1 좌표인 경우, 맵핑 정보를 계산하기 위한 동작의 수행 없이 맵핑 정보를 식별할 수 있다. 또 기재된 바에 국한되지 않고, 상기 컨텐트의 변형을 위한 맵핑 정보들은 형태에 대한 정보 또는 사용자의 시선과 연관된 정보 중 하나에 연관되도록 저장될 수도 있다. 이에 따라, 전자 장치(101)는 미리 저장된 맵핑 정보들 중에서 형태에 대한 정보 또는 사용자의 시선과 연관된 정보 중 하나에 대응하는 맵핑 정보를 식별할 수 있다.
또 한편, 상기 기재된 바에 국한되지 않고, 지정된 [수학식 1]은 일 예일 뿐 전자 장치(101)는 다양한 다양한 수식을 이용하여 제 1 컨텐트를 가상의 평면(예: 1222) 상에 시인되도록 하기 위한 맵핑 정보를 확인할 수 있다.
이하에서는 다양한 실시예들에 따른 전자 장치(101, 예: 600)의 동작의 또 다른 예에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101, 예: 600)는 전자 장치(101, 예: 600)에 포함된 복수 개의 하우징들에 대응하는 복수 개의 가상의 평면들 중 일 평면에서 컨텐트가 시인되도록, 컨텐트에 포함된 서브 컨텐트를 변형할 수 있다. 상기 컨텐트는 복수 개의 하우징들에 대응하는 서브 컨텐트들을 포함할 수 있다. 예를 들어, 컨텐트는 제 1 하우징에 대응하는 디스플레이(또는, 화면)의 영역에 표시되는 제 1 서브 컨텐트 및 제 2 하우징에 대응하는 디스플레이(또는, 화면)의 영역에 표시되는 제 2 서브 컨텐트를 포함할 수 있다.
도 14는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(1400)이다. 다양한 실시예들에 따르면, 도 14에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 14에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 15를 참조하여 도 14에 대해서 설명한다.
도 15는 다양한 실시예들에 따른 전자 장치의 컨텐트에 포함된 서브 컨텐트를 변형하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1401 동작에서 제 1 컨텐트를 디스플레이에 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 15의 1501에 도시된 바와 같이 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도(예: 180°)인 상태에서, 제 1 컨텐트(811)를 표시할 수 있다. 전자 장치(101)의 1401 동작은 상술한 전자 장치(101)의 701 동작과 동일 또는 유사하게 수행될 수 있으므로, 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1403 동작에서 획득 장치(610)에 의해 획득되는 정보를 식별하고 1405 동작에서 전자 장치(101)의 형태의 변경 및/또는 사용자의 시선의 변경을 확인할 수 있다. 예를 들어, 전자 장치(101)의 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도에서 제 2 각도로 변경되는 경우, 전자 장치(101)는 적어도 하나의 센서(611)로부터 정보(예: 전기적인 값)를 획득하고, 획득된 정보에 대응하는 전자 장치(101)의 형태를 확인할 수 있다. 또 예를 들어, 전자 장치(101)는 사용자의 시점 정보의 변경을 확인함으로써, 사용자의 시선의 변경 여부를 확인할 수 있다. 전자 장치(101)의 1403 동작 내지 1405 동작은 전자 장치(101)의 703 동작 내지 705 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1407 동작에서 형태에 대한 정보 또는 사용자의 시선과 연관된 정보 중 적어도 하나를 기반으로, 제 1 평면(1522)과 제 2 평면(1521) 중 하나의 평면을 식별할 수 있다. 예를 들어, 전자 장치(101)는 도 15의 1502에 도시된 바와 같이 복수 개의 하우징들(예: 제 1 하우징(812)과 제 2 하우징(813))에 대응하는 복수 개의 가상의 평면들(예: 제 1 하우징(812)에 대응하는 제 1 평면(1522) 및 제 2 하우징(813)에 대응하는 제 2 평면(1521))을 식별할 수 있다. 전자 장치(101)는 복수 개의 가상의 평면들 중 사용자의 시선과 연관된 정보(예: 사용자의 시선과 연관된 좌표(1520))를 기반으로 사용자의 시선과 이루는 각도가 수직에 더 가까운 평면(예: 1521)을 결정할 수 있다. 상기 전자 장치(101)의 가상의 평면을 결정하는 동작은, 상술한 전자 장치(101)의 1005 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1409 동작에서 제 1 평면(1522)이 식별되는 경우, 상기 제 1 평면(1522)에 대한 정보를 기반으로 제 1 컨텐트를 변형하여 변형된 제 1 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 15의 1503에 도시된 바와 같이 가상의 제 1 평면(1522)이 결정되는 경우, 컨텐트의 서브 컨텐트(예: 1531, 1532)를 변형하여 표시할 수 있다. 이하에서는 전자 장치(101)의 서브 컨텐트의 확인 및 서브 컨텐트를 변형하는 동작에 대해서 설명한다.
다양한 실시예들에 따르면 서브 컨텐트(예: 1531, 1532)는 상기 제 1 컨텐트(811)의 복수 개의 하우징들(예: 812, 813)에 대응하는 플렉서블 디스플레이의 영역들에 대응하는 부분들을 의미할 수 있다. 예를 들어, 플렉서블 디스플레이는 제 1 하우징(812)에 대응하는 제 1 서브 영역을 포함하고, 제 2 하우징(813)에 대응하는 제 2 서브 영역을 포함할 수 있다. 상기 제 1 컨텐트(811)는 제 1 서브 영역에 대응하는 제 1 서브 컨텐트(1531) 및 제 2 서브 영역에 대응하는 제 2 서브 컨텐트(1532)를 포함할 수 있다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 결정된 가상 평면에 연관된 일 서브 컨텐트를 유지하면서, 컨텐트에 포함된 다른 서브 컨텐트를 변형할 수 있다. 예를 들어, 전자 장치(101)는 도 15의 1502에 도시된 바와 같이 가상의 평면(예: 1521)이 결정 되는 경우, 가상의 평면(예: 1521)에 대응하는 제 2 하우징(813) 또는 제 2 하우징(813)에 대응하는 디스플레이의 제 2 서브 영역을 식별할 수 있다. 이후, 전자 장치(101)는 식별된 제 2 하우징(813) 또는 제 2 서브 영역 이외의 제 1 하우징(812) 또는 제 1 서브 영역을 식별하고, 식별된 제 1 하우징(812) 또는 제 1 서브 영역에 대응하는 제 1 서브 컨텐트(1531)를 식별할 수 있다. 전자 장치(101)는 도 15의 1503에 도시된 바와 같이 제 2 평면(1521)에 연관된 제 2 서브 컨텐트(1532)를 유지(또는, 변형하지 않으면서)하면서, 제 1 서브 컨텐트(1531)를 변형 할 수 있다. 전자 장치(101)는 결정된 가상의 제 2 평면(1521) 상에서 제 1 서브 컨텐트(1531)가 시인되도록 하기 위한 맵핑 정보(예: 호모그래피 값)를 식별하고, 식별된 맵핑 정보를 제 1 서브 컨텐트(1531)에 대한 정보(예: 제 2 서브 컨텐트의 좌표 값)에 반영하여 변경된 제 1 서브 컨텐트(1531)에 대한 정보(예: 변경된 제 2 서브 컨텐트의 좌표 값)를 획득할 수 있다. 예를 들어, 전자 장치(101)는 제 1 서브 컨텐트(1531)에 대한 정보(예: 좌표 값)에 맵핑 정보를 반영하면서, 나머지 제 2 서브 컨텐트(1532)에 대한 정보(예: 좌표 값)를 유지할 수 있다(또는, 맵핑 정보를 반영하지 않을 수 있다). 전자 장치(101)는 맵핑 정보에 의해 변형된 제 2 서브 컨텐트(1532)에 대한 정보를 이용하여 변형된 제 2 서브 컨텐트(1532)를 표시하고, 유지된 제 1 서브 컨텐트(1531)에 대한 정보를 이용하여 제 1 서브 컨텐트(1531)를 표시할 수 있다. 상기 제 1 서브 컨텐트(1531)는 제 1 하우징(812)에 대응하는 디스플레이의 제 1 서브 영역에 표시되고, 상기 변형된 제 2 서브 컨텐트(1532)는 제 2 하우징(813)에 대응하는 디스플레이의 제 2 서브 영역에 표시될 수 있다. 이 때, 전자 장치(101)가 컨텐트를 변형하여 표시하는 경우, 전자 장치(101)는 제 2 서브 컨텐트(1532)의 표시를 유지하면서(예를 들어, 계속 표시되면서) 제 1 서브 컨텐트(1531) 만을 변형하여 표시할 수 있다. 전자 장치(101)는 상기 컨텐트를 변형하여 표시하면서, 변형된 컨텐트가 표시되지 않는 나머지 영역(1541)에는 배경 처리를 위한 색을 표시할 수 있다.
상술한 바와 같이, 일 하우징에 대응하는 일 가상의 평면이 결정되는 경우, 전자 장치(101)가 일 하우징에 대응하는 컨텐트의 부분만을 변형하여 표시하는 동작을 수행함으로써 컨텐트의 전체 부분을 변형하여 표시하는 동작과 비교하여 전자 장치(101)의 운용 부담이 경감될 수 있다.
이하에서는 다양한 실시예들에 따른 전자 장치(101, 예: 600)의 동작의 또 다른 예를 설명한다.
다양한 실시예들에 따르면, 전자 장치(101, 예: 600)는 전자 장치의 형태 또는 사용자의 시선 중 적어도 하나의 변경이 확인되는 경우, 컨텐트를 변형하여 표시하는 동작을 개시할 수 있다. 이때, 전자 장치(101, 예: 600)는 컨텐트를 변형하여 표시하기 위한 조건이 만족되었는지 여부를 확인하고, 조건이 만족된 것으로 확인된 경우 컨텐트를 변형하여 표시할 수 있다.
도 16은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 도면이다. 다양한 실시예들에 따르면, 도 16에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 16에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 17a 내지 도 17c를 참조하여 도 16에 대해서 설명한다.
도 17a는 다양한 실시예들에 따른 전자 장치의 형태가 변경되고 전자 장치의 조건이 만족된 경우 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다. 도 17b는 다양한 실시예들에 따른 사용자의 시선이 변경되고 전자 장치의 조건이 만족된 경우 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다. 도 17a는 다양한 실시예들에 따른 전자 장치의 형태 및 사용자의 시선이 변경된 경우 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1601 동작에서 제 1 컨텐트(811)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 17a의 1701, 도 17b의 1711, 도 17c의 1721에 도시된 바와 같이 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도인 상태에서, 제 1 컨텐트(811)를 표시할 수 있다. 이때, 사용자에 의해 컨텐트가 시인되는 평면과 전자 장치(101)에 의해 컨텐트가 표시되는 평면(예: 변형되지 않은 플렉서블 디스플레이)이 동일하게 되어, 도 17의 1701에 도시된 바와 같이 컨텐트에 대한 왜곡이 발생되지 않을 수 있다. 전자 장치(101)의 1601 동작은 상술한 전자 장치(101)의 701 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1603 동작에서 전자 장치(101)의 형태의 변경 여부를 식별하고, 1605 동작에서 사용자 시선의 변경 여부를 식별할 수 있다. 예를 들어, 도 17a 및/또는 도 17c에 도시된 바와 같이 전자 장치(101)의 하우징들(예: 제 1 하우징(812) 및 제 2 하우징(813)) 사이에각도 변경이 일어나는 경우, 전자 장치(101)는 적어도 하나의 센서(611)로부터 정보를 획득하고, 획득된 정보에 대응하는 전자 장치(101)의 형태에 대한 정보를 식별할 수 있다. 전자 장치(101)는 식별된 전자 장치(101)의 형태에 대한 정보 이전에 식별된 형태에 대한 정보와 비교하여, 전자 장치(101)의 형태의 변경 여부를 식별할 수 있다. 또 예를 들어, 도 17b 및/또는 도 17c에 도시된 바와 같이 전자 장치(101)는 적어도 하나의 카메라를 이용하여 사용자를 촬영하고, 촬영된 이미지로부터 식별되는 사용자의 시선과 연관된 좌표 정보를 식별할 수 있다. 전자 장치(101)는 사용자의 시선과 연관된 좌표 정보를 이전의 좌표 정보와 비교하여, 사용자의 시선의 변경 여부를 식별할 수 있다. 전자 장치(101)의 형태에 대한 정보를 식별하는 동작 및 전자 장치(101)의 사용자의 시선과 연관된 정보를 식별하는 동작은, 상술한 전자 장치(101)의 703 동작 내지 707 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1603 동작 내지 1605 동작에서 전자 장치(101)의 형태가 변경되거나 또는 사용자의 시선이 변경된 것으로 식별된 경우 1607 동작에서 컨텐트를 변형하여 표시하기 위한 조건의 만족 여부를 판단할 수 있다. 이하에서는 상기 조건에 대해서 설명한다.
예를 들어 상기 컨텐트를 변형하기 위한 조건은 전자 장치(101)의 모드와 연관된 조건을 포함할 수 있다. 도 17a 내지 도 17c를 참조하면 전자 장치(101)는 컨텐트를 변형하기 위한 모드를 설정하고, 모드가 설정(예: mode setting = Y)된 경우 컨텐트를 변형하기 위한 조건이 만족된 것으로 식별할 수 있다. 상기 모드는 전자 장치(101) 자체에 설정될 수 있다. 예를 들어, 전자 장치(101)는 모드를 설정하기 위한 사용자 인터페이스(예: 퀵 패널)를 제공하고, 사용자 인터페이스 상에서 상기 모드를 설정하기 위한 사용자의 입력을 수신(예: 모드 설정을 위한 아이템 선택)할 수 있다. 전자 장치(101)는 수신된 사용자의 입력에 기반하여 전자 장치(101)의 모드를 전자 장치(101)가 컨텐트를 변형하기 위한 모드로 설정할 수 있다. 또 상기 모드는 기재된 바에 국한되지 않고, 어플리케이션들 별로 설정될 수도 있다. 예를 들어, 전자 장치(101)는 전자 장치(101)에서 실행 및/또는 구동되는 복수개의 어플리케이션들 별로 상기 모드를 설정하기 위한 사용자 인터페이스를 제공하고, 사용자 인터페이스에서 수신된 사용자의 입력에 따라서 복수개의 어플리케이션들 별로 상기 모드를 설정할 수 있다. 이 경우, 전자 장치(101)는 특정 어플리케이션과 연관된 컨텐트를 표시하면서 상기 모드의 설정 여부를 판단하는 경우, 상기 특정 어플리케이션과 연관된 상기 모드가 설정되었는지 여부를 판단할 수 있다. 다양한 실시예에 따르면, 상기 모드는 컨텐트를 변형하기 위한 동작을 의미할 수 있다. 예를 들어, 예를 들어, 전자 장치(101)가 컨텐트를 변형하기로 결정하면 상기 모드가 설정된 것을 의미할 수도 있다.
또 예를 들어 상기 컨텐트를 변형하기 위한 조건은 시간과 연관된 조건을 포함할 수 있다. 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 도 17a 내지 도 17c를 참조하면 전자 장치(101)의 형태의 변경이 식별된 시점 또는 사용자의 시선이 변경이 식별된 시점 중 적어도 하나부터 지정된 시간(
Figure PCTKR2021007917-appb-I000003
t)이 경과된 경우, 컨텐트를 변형하기 위한 조건이 만족된 것으로 식별할 수 있다.
한편 다양한 실시예들에 따르면 전자 장치(101)는 1603 동작 내지 1605 동작에서 전자 장치(101)의 형태가 변경되지 않거나 및 사용자의 시선이 변경되지 않은 것으로 식별된 경우에는, 제 1 컨텐트(811)의 표시를 유지할 수 있다.
다양한 실시예들에 따르면, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1609 동작에서 제 1 컨텐트를 변형하여 표시할 수 있다.
예를 들어, 전자 장치(101)는 도 17a의 1701 내지 1702에 도시된 바와 같이 전자 장치(101)의 형태가 변형되고, 컨텐트를 변형하기 위한 조건이 만족(예: △t의 경과, 모드 설정(Setting=Y))되는 경우 제 1 컨텐트(811)를 변형하여, 변형된 제 1 컨텐트(1721)를 표시할 수 있다. 또 예를 들어, 전자 장치(101)는 도 17의 1702 내지 1703에 도시된 바와 같이, 컨텐트를 변형하기 위한 조건이 만족(예: △t의 경과, 모드 설정(Setting=Y))되는 경우 변형된 제 1 컨텐트(1722)를 표시할 수 있다. 전자 장치(101)는 전자 장치(101)의 형태가 변형될때 마다, 형태에 대한 정보 및 사용자의 시선과 연관된 정보를 기반으로 컨텐트를 변형하기 위한 맵핑 정보를 계산하고, 계산된 맵핑 정보를 이용하여(또는, 결정된 일 가상 평면에 대한 정보를 기반으로) 제 1 컨텐트(811)를 변형하고, 변형된 제 1 컨텐트(1751, 1752)를 표시할 수 있다. 전자 장치(101)의 컨텐트를 변형하여 표시하는 동작 및 맵핑 정보를 계산하는 동작은, 상술한 전자 장치(101)의 709 동작 내지 711 동작 그리고 도 10 내지 도 13에서의 설명과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
또 예를 들어, 전자 장치(101)는 도 17b의 1711, 1712, 및 1713에 도시된 바와 같이 사용자의 시선이 변경되고, 컨텐트를 변형하기 위한 조건이 만족(예: △t의 경과, 모드 설정(Setting=Y))되는 경우 제 1 컨텐트(811)를 변형하여, 변형된 제 1 컨텐트(1721)를 표시할 수 있다. 상기 전자 장치(101)는 사용자의 시선이 변경될 때마다, 형태에 대한 정보 및 사용자의 시선과 연관된 정보를 기반으로 컨텐트를 변형하기 위한 맵핑 정보를 계산하고, 계산된 맵핑 정보를 이용하여(또는, 결정된 일 가상 평면에 대한 정보를 기반으로) 제 1 컨텐트(811)를 변형하여, 변형된 제 1 컨텐트(1731, 1732)를 표시할 수 있다. 전자 장치(101)의 컨텐트를 변형하여 표시하는 동작 및 맵핑 정보를 계산하는 동작은, 상술한 전자 장치(101)의 709 동작 내지 711 동작 그리고 도 10 내지 도 13에서의 설명과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.
또 예를 들어, 전자 장치(101)는 도 17c의 1721, 1722, 및 1723에 도시된 바와 같이 전자 장치(101)의 형태 및 사용자의 시선이 모두 변경되고, 컨텐트를 변형하기 위한 조건이 만족(예: △t의 경과, 모드 설정(Setting=Y))되는 경우 제 1 컨텐트(811)를 변형하여, 변형된 제 1 컨텐트(1721)를 표시할 수 있다.
다양한 실시예들에 따르면, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1603 동작 내지 1609 동작의 수행을 반복할 수 있다. 예를 들어, 전자 장치(101)는 도 17a의 1701 내지 1703, 도 17b의 1711 내지 1713, 및 도 17c의 1721 내지 1723에 도시된 바와 같이, 전자 장치(101)의 형태의 변경(예: 하우징들 사이의 폴딩 각도의 변경) 및/또는 사용자의 시선의 변경(예: 사용자의 시선과 연관된 좌표 정보의 변경)이 식별되는 경우, 연속적으로 컨텐트를 변형(예: 1721, 1722)하여 표시하기 위한 동작을 수행할 수 있다. 전자 장치(101)는 전자 장치(101)의 형태의 변경 및/또는 사용자의 시선의 변경이 식별되는 경우마다, 컨텐트를 변형하기 위한 조건의 만족 여부를 판단할 수 있다. 전자 장치(101)는 컨텐트를 변형하기 위한 조건이 만족되는 경우, 현재 식별되는 전자 장치(101)의 형태에 대한 정보 및 현재 식별되는 전자 장치(101)의 시선과 연관된 정보를 기반으로 컨텐트를 변형하기 위한 맵핑 정보를 계산할 수 있다.예를 들어, 도 17의 1701, 1702, 및 1703 별로 컨텐트의 변형을 위해 이용되는 맵핑 정보는 다를 수 있다. 전자 장치(101)는 상기 계산된 맵핑 정보들을 이용하여, 컨텐트를 변형하여 표시할 수 있다.
한편, 상기 기재된 바에 국한되지 않고, 전자 장치(101)는 상기 조건의 만족 여부(예: 모드의 설정 여부, 시간과 연관된 조건의 만족 여부)를 판단하지 않고, 전자 장치(101)의 형태의 변경 및/또는 사용자의 시선의 변경이 식별되는 경우 컨텐트를 변형하는 동작을 수행할 수도 있다. 예를 들어, 전자 장치(101)는 1607 동작의 수행을 생략할 수 있다.
이하에서는 다양한 실시예들에 따른 전자 장치(101, 예: 600)의 동작의 또 다른 예에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101, 예: 600)는 컨텐트와 함께 적어도 하나의 그래픽 엘리먼트를 표시할 수 있다. 전자 장치(101, 예: 600)는 변형된 컨텐트를 표시하는 경우, 상기 적어도 하나의 그래픽 엘리먼트의 색을 기반으로 변형된 컨텐트가 표시되는 제 1 영역 이외의 제 2 영역에 적어도 하나의 색을 표시할 수 있다. 또, 전자 장치(101, 예: 600)는 컨텐트를 변형하여 변형된 컨텐트를 표시하면서 적어도 하나의 그래픽 엘리먼트의 표시를 유지할 수 있다.
도 18은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(1800)이다. 다양한 실시예들에 따르면, 도 18에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 18에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 19 내지 도 20을 참조하여 도 18에 대해서 설명한다.
도 19는 다양한 실시예들에 따른 전자 장치의 제 2 영역에 그래픽 엘리먼트의 색을 기반으로 적어도 하나의 색을 표시하는 동작의 일 예를 설명하기 위한 도면이다. 도 20은 다양한 실시예들에 따른 전자 장치의 변형된 컨텐트를 표시하면서 그래픽 엘리먼트의 표시를 유지하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1801 동작에서 제 1 컨텐트(811)와 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 19의 1901에 도시된 바와 같이 어플리케이션의 실행 및/또는 구동에 따라서, 어플리케이션의 실행 화면을 표시할 수 있다. 상기 어플리케이션의 실행 화면은 어플리케이션의 실행 및/또는 구동에 따라서 획득되는 데이터(예: 이미지 데이터, 영상 데이터)에 기반하여 표시되는 컨텐트(811)(예: 이미지, 영상, 3D 오브젝트) 및 어플리케이션의 제어 및/또는 어플리케이션과 연관된 정보를 제공하기 위한 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913)를 포함할 수 있다. 상기 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913)는 바 형태의 오브젝트들(예: 네비게이션 바(navigation bar), 스테이터스 바(status bar), 및 툴바(Tool bar), 및 제어를 위한 오브젝트(예: 토글 버튼, 슬라이더, 및 액션 버튼) 중 적어도 하나를 포함할 수 있다.
다양한 실시예들에 따르면, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1803 동작에서 획득 장치(610)에 의해 획득되는 정보를 식별하고, 1805 동작에서 전자 장치(101)의 형태의 변경 및/또는 사용자의 시선의 변경을 확인할 수 있다. 예를 들어, 도 19의 1901 내지 1902에 도시된 바와 같이 하우징들 사이의 각도가 제 1 각도에서 제 2 각도로 변경되는 경우, 전자 장치(101)는 적어도 하나의 센서(611)로부터 식별되는 정보에 따라서 하우징들 사이의 각도가 제 2 각도임을 식별할 수 있다. 또 예를 들어, 전자 장치(101)는 사용자의 시점 정보의 변경을 확인함으로써, 사용자의 시선의 변경 여부를 확인할 수 있다. 전자 장치(101)의 1803 동작 내지 1805 동작은 상술한 전자 장치(101)의 703 동작 내지 705 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1807 동작에서 형태에 대한 정보 및 사용자의 시선과 연관된 정보를 기반으로, 상기 제 1 컨텐트(811)를 변형하여 상기 변형된 제 1 컨텐트(911)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 형태에 대한 정보 및 사용자의 시선과 연관된 정보를 기반으로 맵핑 정보를 획득하고, 획득된 맵핑 정보를 이용하여 제 1 컨텐트를 변형하여 표시할 수 있다. 전자 장치(101)의 1807 동작은 상술한 전자 장치(101)의 707 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다. 이하에서는, 전자 장치(101)의 컨텐트를 변형하여 표시면서 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913)의 표시를 유지하는 동작에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 제 1 컨텐트를 변형하여 표시하면서 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913)의 표시를 유지할 수 있다. 예를 들어, 전자 장치(101)는 도 19의 1902에 도시된 바와 같이 컨텐트(content) 및 적어도 하나의 그래픽 엘리먼트(element 1, element 2, element 3)(예: 1911, 1912, 1913)의 변형 가부를 설정할 수 있다. 전자 장치(101)는 컨텐트(811)(예: 이미지, 영상, 3D 오브젝트)에 대해서는 변형 가능한 것으로 설정하고, 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913)(예: 네비게이션 바, 및 제어를 위한 버튼들)에 대해서는 변형 불가능한 것으로 설정할 수 있다. 상기 컨텐트(811)는 사용자에게 왜곡되어 시인되는 것을 보상하기 위해 변형되는 것으로 설정되고, 상기 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913)는 사용자의 조작의 편의성을 위해서 변형되지 않도록 설정될 수 있다. 이에 따라, 전자 장치(101)는 전자 장치(101)의 형태 또는 사용자의 시선의 방향(예: 시선과 연관된 좌표로부터 전자 장치(101)의 중심점으로의 방향)이 변경되는 경우, 컨텐트(811)를 변형하여 표시하면서 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913)의 표시를 유지할 수 있다. 한편 상기 기재된 바에 국한되지 않고, 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913)가 변형되어 표시되도록 설정될 수도 있다.
다양한 실시예들에 따르면, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 1809 동작에서 제 1 그래픽 엘리먼트의 색을 식별하고, 1811 동작에서 제 1 그래픽 엘리먼트의 색을 기반으로 제 2 영역(931) 상에 배경 처리를 위한 설정된 적어도 하나의 색을 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 19의 1903에 도시된 바와 같이 표시 중인 적어도 하나의 그래픽 엘리먼트(1911, 1912, 1913) 중 제 1 그래픽 엘리먼트(1911)의 색을 배경 처리를 위한 색으로 식별할 수 있다. 전자 장치(101)는 변형된 제 1 컨텐트(811)를 표시하면서, 변형된 제 1 컨텐트(911)가 표시되는 제 1 영역 이외의 제 2 영역(931)에 식별된 제 1 그래픽 엘리먼트(1911)의 색을 표시할 수 있다. 이하에서는 전자 장치(101)의 배경 처리를 위한 색을 식별하는 동작에 대해서 더 설명한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 복수 개의 그래픽 엘리먼트들을 표시하는 경우, 배경 처리를 위한 색을 식별하기 위해 복수 개의 그래픽 엘리먼트들 중 제 1 그래픽 엘리먼트(1911)를 식별할 수 있다. 예를 들어, 전자 장치(101)는 제 2 영역(931)에 대한 정보(예: 좌표(2021)(예: x1,y1))와 복수 개의 그래픽 엘리먼트들이 표시되는 영역에 대한 정보들(예: 좌표(2021)(예: x2,y2))을 비교하여, 복수 개의 그래픽 엘리먼트들 중 제 1 그래픽 엘리먼트(1911)를 식별할 수 있다. 도 20의 2001 내지 2002에 도시된 컨텐트의 변형 동작을 참조하면, 전자 장치(101)는 제 1 컨텐트(811)를 변형하여 표시하는 경우, 변형된 제 1 컨텐트(911)가 표시되는 제 1 영역 이외의 제 2 영역(931)에 대한 정보(예: 좌표(2021)(예: x1,y1))를 식별할 수 있다. 전자 장치(101)는 복수 개의 그래픽 엘리먼트들에 대한 정보(예: 좌표(2022)(예: x2,y2))를 식별할 수 있다. 전자 장치(101)는 상기 제 2 영역(931)에 대한 정보와 복수 개의 그래픽 엘리먼트들에 대한 정보를 비교하여, 복수 개의 그래픽 엘리먼트들 중 상기 제 2 영역(931)에 가장 인접하게 위치되는 제 1 그래픽 엘리먼트(1911)를 식별할 수 있다. 전자 장치(101)는 상기 가장 인접하게 위치되는 제 1 그래픽 엘리먼트(1911)의 색으로 배경 처리를 위한 적어도 하나의 색을 설정함으로써, 변형된 제 1 컨텐트(911)의 시인성을 향상 시킬 수 있다. 또는, 기재된 바에 국한되지 않고, 전자 장치(101)는 제 1 그래픽 엘리먼트의 색과는 상이한 색을 배경 처리를 위한 색으로 설정할 수도 있다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 복수 개의 그래픽 엘리먼트들을 표시하는 경우, 복수 개의 그래픽 엘리먼트들의 색들을 기반으로 적어도 하나의 색을 설정할 수 있다. 예를 들어, 전자 장치(101)는 복수 개의 그래픽 엘리먼트들의 색들 각각을 식별하고, 식별된 복수 개의 색들과 연관된 색을 배경 처리를 위한 색으로 식별할 수 있다. 일 예로, 전자 장치(101)는 복수 개의 색들과 연관된 값(예: 명도 값, 채도 값, 색상 값)의 평균 값을 계산하고 계산된 평균 값에 대응하는 색과 동일 또는 유사한 색을 배경 처리를 위한 적어도 하나의 색으로 식별할 수 있다. 다른 예로, 전자 장치(101)는 복수 개의 색들 중 식별된 색과 상이한 색을 배경 처리를 위한 적어도 하나의 색으로 식별 할 수도 있다.
이하에서는 다양한 실시예들에 따른 전자 장치(101, 예: 600)의 동작의 또 다른 예에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101, 예: 600)는 제 1 어플리케이션과 연관된 제 1 컨텐트를 변형하여 표시하면서, 변형된 제 1 컨텐트가 표시되는 제 1 영역 이외의 제 2 영역에 제 2 어플리케이션과 연관된 제 2 컨텐트를 표시할 수 있다.
도 21은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(2000)이다. 다양한 실시예들에 따르면, 도 21에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 21에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 22 내지 도 23을 참조하여 도 21에 대해서 설명한다.
도 22는 다양한 실시예들에 따른 전자 장치의 제 2 영역에 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다. 도 23은 다양한 실시예들에 따른 전자 장치의 제 2 영역에 컨텐트를 표시하는 동작의 다른 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2101 동작에서 제 1 어플리케이션과 연관된 제 1 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 22의 2201 및 도 23의 2301에 도시된 바와 같이 제 1 어플리케이션(예: 웹 어플리케이션)의 실행 및/또는 구동에 따라서 획득되는 정보(예: HTML과 같은 웹 페이지를 표시하기 위한 파일)를 기반으로, 제 1 컨텐트(예: 이미지, 영상, 또는 텍스트 중 적어도 하나)를 포함하는 제 1 어플리케이션의 실행 화면(예: 2211, 2311)을 표시할 수 있다. 전자 장치(101)의 2101 동작은 상술한 전자 장치(101)의 701 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2103 동작에서 획득 장치(610)에 의해 획득되는 정보를 식별하고, 2105 동작에서 전자 장치(101)의 형태의 변경 및/또는 사용자의 시선의 변경을 확인할 수 있다. 예를 들어, 도 22의 2201 내지 2202 및 도 23의 2301 내지 2302에 도시된 바와 같이 전자 장치(101)의 하우징들(예: 제 1 하우징(812) 및 제 2 하우징(813)) 사이의 각도가 제 1 각도에서 제 2 각도로 변경되는 경우, 전자 장치(101)는 적어도 하나의 센서(611)로부터 검출된 정보를 기반으로 전자 장치(101)의 형태(예: 하우징들 사이의 각도가 제 2 각도임)를 식별할 수 있다. 또 예를 들어, 전자 장치(101)는 사용자의 시점 정보의 변경을 확인함으로써, 사용자의 시선의 변경 여부를 확인할 수 있다. 전자 장치(101)의 2102 동작 내지 2103 동작은 상술한 전자 장치(101)의 703 동작 내지 705 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2107 동작에서 형태에 대한 정보 및 사용자의 시선과 연관된 정보를 기반으로, 상기 제 1 컨텐트를 변형하여 상기 변형된 제 1 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 22의 2202 및 도 23의 2302에 도시된 바와 같이, 맵핑 정보를 기반으로 변형된 제 1 컨텐트를 포함하는 제 1 어플리케이션의 실행 화면(예: 2211, 2231)을 표시할 수 있다. 상기 전자 장치(101)의 2104 동작은 상술한 전자 장치(101)의 707 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2109 동작에서 상기 제 2 영역 상에 제 2 어플리케이션과 연관된 제 2 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 변형된 제 1 컨텐트가 표시되는 제 1 영역 이외의 제 2 영역에, 제 1 어플리케이션과는 다른 제 2 어플리케이션과 연관된 제 2 컨텐트(예: 2212, 2312)를 표시할 수 있다. 이때, 상술한 바와 같이 제 2 영역 내의 제 2 컨텐트(예: 2212, 2312)가 표시되는 영역 이외의 나머지 영역은 배경 처리를 위한 적어도 하나의 색으로 표시될 수 있다. 전자 장치(101)의 적어도 하나의 색을 표시하는 동작은 상술한 전자 장치(101)의 705 동작 및 도 18 내지 도 20의 설명과 같이 수행될 수 있으므로 중복되는 설명은 생략한다. 이하에서는 전자 장치(101)의 제 2 어플리케이션과 연관된 제 2 컨텐트(예: 2212, 2312)를 표시하는 동작에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 제 2 영역에 표시될 제 2 컨텐트를 결정할 수 있다. 이하에서는 전자 장치(101)의 제 2 컨텐트를 결정하는 동작의 예들에 대해서 설명한다.
예를 들어, 전자 장치(101)는 전자 장치(101)의 형태 또는 사용자의 시선 방향(예: 시선과 연관된 좌표로부터 전자 장치(101)의 중심 점의 좌표로의 방향)이 변경되기 전 발생된 이벤트와 연관된 컨텐트를 제 2 영역에 표시하는 것으로 결정할 수 있다. 상기 이벤트는 지정된 조건(예: 시간, 장소)의 만족 시 알림(예: 알람)을 제공하는 이벤트 및 외부 전자 장치(101)로부터 메시지를 수신하는 이벤트와 같은 갑자기 발생되는 이벤트를 포함할 수 있다. 일 예로 전자 장치(101)는 도 22의 2201에 도시된 바와 같이 외부 전자 장치(101)로부터 메시지(2212)를 수신하는 경우, 도 22의 2202에 도시된 바와 같이 수신된 메시지(2212)를 표시하기 위한 화면을 제 2 영역에 표시할 수 있다. 상기 메시지를 표시하기 위한 화면과 연관된 제 2 어플리케이션은 제 1 컨텐트와 연관된 제 1 어플리케이션과 서로 다를 수 있다.
또 예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 현재 전자 장치(101)에서 백 그라운드 모드로 실행 중인 적어도 하나의 어플리케이션과 연관된 컨텐트를 제 2 영역에 표시하는 것으로 결정할 수 있다. 전자 장치(101)는 제 1 어플리케이션을 포어 그라운드 모드로 실행하면서, 다른 적어도 하나의 어플리케이션을 백 그라운드 모드로 실행할 수 있다. 전자 장치(101)는 도 23의 2302에 도시된 바와 같이 백 그라운드 모드로 실행되는 적어도 하나의 어플리케이션과 연관된 컨텐트(예: 2312)를 제 2 영역에 표시할 수 있다. 전자 장치(101)는 복수 개의 어플리케이션들이 백 그라운드 모드로 실행되는 경우, 복수 개의 어플리케이션들 중 최상위의 액티비티에 대응하는 어플리케이션(또는, 가장 최근에 사용자에 의해 제어(user interaction)된 어플리케이션)과 연관된 컨텐트(예: 2312)를 제 2 영역에 표시할 수 있다. 상기 백그라운드 모드로 실행되는 어플리케이션과 연관된 제 2 컨텐트(예: 2312)는 어플리케이션의 실행 화면의 일부를 포함할 수 있다. 또 상기 기재된 바에 국한되지 않고, 상기 제 2 컨텐트는 백그라운드 모드로 실행되는 어플리케이션을 실행하기 위한 아이콘을 포함할 수 있다. 또 상기 기재된 바에 국한되지 않고, 백 그라운드 모드로 실행되는 복수 개의 어플리케이션들과 연관된 컨텐트들이 제 2 영역에 표시될 수도 있다.
또 예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 제 1 어플리케이션과 연관된 제 2 어플리케이션을 식별하고, 식별된 제 2 어플리케이션과 연관된 컨텐트를 표시할 수 있다. 일 예로, 도시되지 않았으나, 전자 장치(101)는 제 1 어플리케이션과 함께 빈번하게 사용된 것으로 식별되는 제 2 어플리케이션을 식별하고, 식별된 제 2 어플리케이션과 연관된 제 2 컨텐트(예: 실행 화면의 일부)를 표시할 수 있다. 또 상기 기재된 바에 국한되지 않고, 제 1 어플리케이션과 연관된 복수 개의 어플리케이션들과 연관된 컨텐트들이 제 2 영역에 표시될 수도 있다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 제 2 영역에 표시되는 제 2 컨텐트에 대해서 사용자의 입력을 수신하고, 사용자의 입력을 수신한 것에 기반하여 적어도 하나의 동작을 수행할 수 있다. 이하에서는 전자 장치(101)의 동작의 예들에 대해서 설명한다.
예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 도 22의 2202 내지 2203, 및 도 23의 2302 내지 2303에 도시된 바와 같이 제 2 영역의 제 2 컨텐트(예: 2212, 2312)를 선택하기 위한 사용자의 입력(예: 2221, 2321)을 수신하는 경우, 변형된 제 1 컨텐트(예: 2211, 2311) 대신에 선택된 제 2 컨텐트(예: 2212, 2312)를 제 1 영역에 표시할 수 있다. 상기 제 1 영역에 표시되는 제 2 컨텐트(예: 2212, 2312)는 맵핑 정보에 기반하여 변형되어 표시될 수 있다.
또 예를 들어, 전자 장치(101)는 도 23의 2303 내지 2304에 도시된 바와 같이 제 2 컨텐트(2311)를 드래그하기 위한 사용자의 입력(2331)을 수신하는 경우, 다른 제 3 어플리케이션과 연관된 제 3 컨텐트(2341)를 표시할 수 있다. 상기 제 3 어플리케이션은 제 2 어플리케이션과는 다른 백 그라운드 모드로 실행 중이던 어플리케이션일 수 있다.
이하에서는 다양한 실시예들에 따른 전자 장치(101, 예: 600)의 동작의 또 다른 예에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101, 예: 600)는 사용자에 의해 시인 불가능한 디스플레이의 영역에 컨텐트를 표시하지 않을 수 있다.
도 24는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(2400)이다. 다양한 실시예들에 따르면, 도 24에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 24에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 25를 참조하여 도 24에 대해서 설명한다.
도 25는 다양한 실시예들에 따른 사용자에 의해 시인 불가능한 디스플레이의 영역에 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2401 동작에서 제 1 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 25의 2501에 도시된 바와 같이 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도(예: 180°)인 상태에서, 제 1 컨텐트(811)를 표시할 수 있다. 전자 장치(101)의 2401 동작은 상술한 전자 장치(101)의 701 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2403 동작에서 획득 장치(610)에 의해 획득되는 정보를 식별하고, 2405 동작에서 전자 장치(101)의 형태의 변경 및/또는 사용자의 시선의 변경을 확인할 수 있다. 예를 들어, 도 25의 2502에 도시된 바와 같이 하우징들(예: 제 1 하우징(812) 및 제 2 하우징(813)) 사이의 각도가 제 1 각도에서 제 2 각도로 변경되는 경우, 전자 장치(101)는 적어도 하나의 센서로부터 검출된 정보를 기반으로 전자 장치(101)의 형태(예: 하우징들 사이의 각도가 제 2 각도임)를 식별할 수 있다. 또 예를 들어, 전자 장치(101)는 사용자의 시점 정보의 변경을 확인함으로써, 사용자의 시선의 변경 여부를 확인할 수 있다. 전자 장치(101)의 2403 동작 내지 2405 동작은 상술한 전자 장치(101)의 703 동작 내지 705 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2407 동작에서 제 1 하우징(812)에 대응하는 디스플레이의 제 1 서브 영역(2524)과 제 2 하우징(813)에 대응하는 디스플레이의 제 2 서브 영역(2525) 중 사용자에게 시인되지 않는 것으로 판단되는 서브 영역을 식별할 수 있다. 상기 제 1 서브 영역(2524)은 제 1 하우징(812)에 대응하는 디스플레이의 영역이고, 상기 제 2 서브 영역(2525) 제 2 하우징(813)에 대응하는 영역일 수 있다. 전자 장치(101)는 제 1 서브 영역(2524) 또는 제 2 서브 영역(2525) 중 사용자에게 시인되는 것으로 판단되는 서브 영역을 식별할 수도 있다. 이하에서는 전자 장치(101)의 사용자에게 시인되지 않는 디스플레이의 서브 영역을 식별하는 동작의 예에 대해서 설명한다.
예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 전자 장치(101)의 특정 부분(예: 제 1 하우징(812)에 대응하는 제 1 부분 또는 제 2 하우징(813)에 대응하는 제 2 부분)에 구비되는 카메라를 기반으로, 디스플레이의 서브 영역들(예: 제 1 서브 영역(2524) 및 제 2 서브 영역(2525)) 중 전자 장치(101)의 사용자에게 시인되지 않는 서브 영역을 판단할 수 있다. 전자 장치(101)는 도 25의 2502에 도시된 바와 같이 제 1 하우징(812)의 제 1 부분에 구비되는 카메라(2521)를 이용하여 사용자를 촬영할 수 있다. 전자 장치(101)는 촬영된 이미지로부터 사용자의 시선과 연관된 정보(예: 좌표 정보)를 식별할 수 있다. 전자 장치(101)는 전자 장치(101)의 형태에 대한 정보(예: 하우징들 사이의 각도에 대한 정보)를 기반으로 제 1 서브 영역(2524)에 대한 정보(예: 좌표 행렬)와 제 2 서브 영역(2525)에 대한 정보(예: 좌표 행렬)를 식별하고, 시선과 연관된 정보와 각각의 서브 영역들에 대한 정보를 기반으로 각각의 서브 영역들로의 사용자의 시선의 방향(예: 사용자 시선과 연관된 좌표로부터 각 서브 영역들로의 방향)을 식별할 수 있다. 전자 장치(101)는 사용자의 시선 방향에 대한 정보를 이용하여, 복수 개의 서브 영역들 중 사용자에 의해 시인되지 않을 것으로 판단되는 일 서브 영역을 판단할 수 있다. 일 예로, 시선 방향과 일 서브 영역에 수직한 방향 사이의 각도가 지정된 각도(예: 90°)를 초과하는 경우, 상기 서브 영역이 시인되지 않을 것으로 판단될 수 있다.
또 예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 전자 장치(101)의 복수 개의 부분들(예: 제 1 하우징(812)에 대응하는 제 1 부분 및 제 2 하우징(813)에 대응하는 제 2 부분)에 구비되는 카메라들(카메라(2521) 및 다른 카메라(미도시))를 기반으로, 디스플레이의 서브 영역들 중 사용자에게 시인되지 않는 서브 영역을 판단할 수 있다. 일 예로 전자 장치(101)는 일 부분(예: 제 1 하우징(812)의 제 1 부분)에 구비되는 제 1 카메라(2511)를 이용하여 사용자를 촬영하고, 다른 부분(예: 제 2 하우징(813)의 제 2 부분)에 구비되는 다른 카메라(미도시)를 이용하여 사용자를 촬영할 수 있다. 전자 장치(101)는 각 부분들에서 촬영된 이미지들로부터 사용자가 검출되지 않는 일 이미지를 식별하고, 상기 일 이미지가 촬영된 부분에 대응하는 서브 영역을 사용자에게 시인되지 않는 서브 영역인 것으로 확인할 수 있다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2409 동작에서 제 2 서브 영역(2525)이 식별되는 경우, 제 1 서브 영역(2524)에 변형된 제 1 컨텐트를 표시하고, 변형된 제 1 컨텐트가 표시되는 영역 이외의 영역에 적어도 하나의 색을 표시할 수 있다. 전자 장치(101)는 맵핑 정보를 이용하여 제 1 컨텐트를 변형하고, 사용자에게 시인되는 것으로 식별되는 디스플레이의 서브 영역(예: 제 1 서브 영역(2524))의 형상에 기반하여 변형된 제 1 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 25의 2503에 도시된 바와 같이 맵핑 정보를 기반으로 제 1 컨텐트를 변형할 수 있다. 전자 장치(101)는 변형된 제 1 컨텐트를 사용자에게 시인되는 것으로 판단된 제 2 서브 영역(2525)에 표시하기 위해, 맵핑 정보에 의해 변형된 제 1 컨텐트를 디스플레이의 제 1 서브 영역(2524)의 형상에 대응하도록 변형(예: 사이즈 조정(2531))할 수 있다. 전자 장치(101)는 디스플레이의 제 1 서브 영역(2524)의 제 1 컨텐트가 표시되는 특정 영역 이외의 영역에 배경 처리를 위한 색을 표시할 수 있다. 또는, 전자 장치(101)는 변형된 제 1 컨텐트를 디스플레이의 제 1 서브 영역(2524)에 표시하면서, 사용자에게 시인되지 않는 것으로 판단된 디스플레이의 제 2 서브 영역(2525)이 턴 오프(turn-off)되도록(예: 디스플레이의 백 라이트 유닛을 turn-off) 제어할 수 있다. 상기와 같이 전자 장치(101)는 사용자에게 시인되지 않는 것으로 판단된 제 2 서브 영역(2525)이 턴 오프되도록 제어함으로써 컨텐트의 표시가 불필요한 디스플레이의 부분을 제어함에 따라 발생되는 운용 부담을 경감할 수 있다.
이하에서는 다양한 실시예들에 따른 전자 장치(101, 예: 600)의 동작의 또 다른 예에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101, 예: 600)는 전자 장치의 표시 모드(예: 가로 모드 및 세로 모드)를 기반으로, 컨텐트를 변형하여 표시할 수 있다.
도 26은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(2600)이다. 다양한 실시예들에 따르면, 도 26에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 26에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 27을 참조하여 도 26에 대해서 설명한다.
도 27은 다양한 실시예들에 따른 전자 장치의 전자 장치의 표시 모드에 기반하여 컨텐트를 표시하는 동작의 일 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2601 동작에서 제 1 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 27의 2701에 도시된 바와 같이 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도(예: 180°)인 상태에서, 제 1 컨텐트(2711)를 표시할 수 있다. 이때, 전자 장치(101)의 회전 여부에 따라서 설정된 전자 장치(101)의 표시 모드(예: 가로 모드 또는 세로 모드)을 기반으로, 제 1 컨텐트(2711)를 표시할 수 있다. 상기 가로 모드는 전자 장치(101)의 일 측면이 지면과 평행하도록 회전되는 경우 설정되고, 상기 세로 모드는 전자 장치(101)의 일 측면이 지면과 수직을 이루도록 회전되는 경우 설정될 수 있다. 전자 장치(101)는 가로 모드에 기반하여 제 1 컨텐트를 전자 장치(101)의 디스플레이의 가로 형상(예: 전자 장치(101)의 디스플레이의 가로가 긴 경우 형상)으로 표시하고, 세로 모드에 기반하여 제 1 컨텐트를 전자 장치(101)의 세로 형상(예: 전자 장치(101)의 디스플레이의 세로가 긴 경우 형상)으로 표시할 수 있다. 일 예로, 전자 장치(101)는 도 27의 2701에 도시된 바와 같이 전자 장치(101)가 가로로 회전되어 가로 모드가 설정되는 경우, 가로 모드에 기반하여 제 1 컨텐트를 표시할 수 있다. 그외 전자 장치(101)의 2701 동작은 상술한 전자 장치(101)의 701 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2603 동작에서 획득 장치(610)에 의해 획득되는 정보를 식별하고, 2605 동작에서 전자 장치(101)의 형태 및/또는 사용자의 시선의 변경 여부를 확인할 수 있다. 예를 들어, 도 27의 2602에 도시된 바와 같이 하우징들(예: 제 1 하우징(812) 및 제 2 하우징(813)) 사이의 각도가 제 1 각도에서 제 2 각도로 변경되는 경우, 전자 장치(101)는 적어도 하나의 센서로부터 검출된 정보를 기반으로 전자 장치(101)의 형태(예: 하우징들 사이의 각도가 제 2 각도임)를 식별할 수 있다. 또 예를 들어, 전자 장치(101)는 사용자의 시점 정보의 변경을 확인함으로써, 사용자의 시선의 변경 여부를 확인할 수 있다. 전자 장치(101)의 2503 동작 내지 2505 동작은 상술한 전자 장치(101)의 703 동작 내지 705 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2607 동작에서 전자 장치(101)의 표시 모드를 확인할 수 있다. 예를 들어, 전자 장치(101)는 도 27의 2702에 도시된 바와 같이 세로 모드(2721) 및 가로 모드(2722) 중에서, 현재 전자 장치(101)의 표시 모드가 가로 모드인 것을 식별할 수 있다.
다양한 실시예들에 따르면 전자 장치(101)는 2609 동작에서 표시 모드, 형태에 대한 정보, 및 사용자의 시선과 연관된 정보를 기반으로, 변형된 제 1 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 27의 2702에 도시된 바와 같이 가로 모드(2722)에 기반하여 표시되는 제 1 컨텐트의 형상(예: 가로 형상)을 식별할 수 있다. 전자 장치(101)는 식별된 형상(예: 가로 형상)의 제 1 컨텐트를 형태에 대한 정보 및 사용자의 시선과 연관된 정보에 기반하여 획득된 맵핑 정보를 이용하여 제 1 컨텐트(2711)를 변형하고, 도 27의 2703에 도시된 바와 같이 변형된 제 1 컨텐트(2723)를 표시할 수 있다. 전자 장치(101)의 제 1 컨텐트(2711)를 변형하는 동작은, 전자 장치(101)의 709 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2611 동작에서 변형된 제 1 컨텐트가 표시되는 제 1 영역 이외의 제 2 영역 상에 배경 처리를 위하여 설정된 적어도 하나의 색을 표시할 수 있다. 예를 들어, 전자 장치(101)는 도 27의 2703에 도시된 바와 같이 변형된 제 1 컨텐트가 표시되는 영역 이외의 다른 영역(2731)에 배경 처리를 위한 적어도 하나의 색을 표시할 수 있다. 전자 장치(101)의 2611 동작은, 상술한 전자 장치(101)의 706 동작 그리고 도 10 내지 도 13에서의 설명과 같이 수행될 수 있으므로, 중복되는 설명은 생략한다.
이하에서는 다양한 실시예들에 따른 전자 장치(101, 예: 600)의 동작의 또 다른 예에 대해서 설명한다.
다양한 실시예들에 따르면 전자 장치(101, 예: 600)는 복수의 사용자들이 식별되는 경우, 복수의 사용자들과 연관된 정보(예: 복수의 사용자들의 시선과 연관된 정보들, 복수의 사용자들의 무게 중심과 연관된 정보들)를 기반으로 컨텐트를 변형하여 표시할 수 있다.
도 28은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(2800)이다. 다양한 실시예들에 따르면, 도 28에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 28에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 29 내지 31를 참조하여 도 28에 대해서 설명한다.
도 29는 다양한 실시예들에 따른 전자 장치의 복수의 사용자들이 식별되는 경우 컨텐트를 변형하는 동작의 일 예를 설명하기 위한 도면이다. 도 30은 다양한 실시예들에 따른 전자 장치의 복수의 사용자들이 식별되는 경우 컨텐트를 변형하는 동작의 다른 예를 설명하기 위한 도면이다. 도 31은 다양한 실시예들에 따른 전자 장치의 복수의 사용자들이 식별되는 경우 컨텐트를 변형하는 동작의 또 다른 예를 설명하기 위한 도면이다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2801 동작에서 제 1 컨텐트를 표시할 수 있다. 예를 들어, 전자 장치(101)는 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도(예: 180°)인 상태에서, 제 1 컨텐트를 표시할 수 있다. 전자 장치(101)의 2801 동작은 전자 장치(101)의 701 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2803 동작에서 회득 장치(610)에 의해 획득되는 정보를 식별하고, 2805 동작에서 전자 장치(101)의 형태의 변경 및/또는 사용자의 시선의 변경을 확인할 수 있다. 예를 들어, 전자 장치(101)의 제 1 하우징(812)과 제 2 하우징(813)이 회전됨에 따라, 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 1 각도에서 제 2 각도로 변경 될 수 있다. 전자 장치(101)는 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 2 각도로 되는 경우 획득 장치(예: 도 6의 획득 장치(610))(예: 적어도 하나의 센서)로부터 제 2 정보(예: 전기 적인 값)를 획득할 수 있다. 전자 장치(101)는 획득된 제 2 정보를 기반으로 전자 장치(101)의 형태가 제 2 형태(예: 제 1 하우징(812)과 제 2 하우징(813) 사이의 각도가 제 2 각도임)인 것을 확인할 수 있다. 또 예를 들어, 전자 장치(101)는 사용자의 시점 정보의 변경을 확인함으로써, 사용자의 시선의 변경 여부를 확인할 수 있다. 전자 장치(101)의 2803 동작 내지 2805 동작은 상술한 전자 장치(101)의 703 동작 내지 705 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2807 동작에서 복수의 사용자들(2911, 2912, 2913)에 대한 정보를 기반으로, 단일의 사용자의 위치와 연관된 정보를 식별할 수 있다. 전자 장치(101)는 도 29의 2901 및 도 30의 2901에 도시된 바와 같이 카메라를 이용하여 촬영하여 획득된 이미지로부터 복수의 사용자들(2911, 2912, 2913)을 검출할 수 있다. 전자 장치(101)는 제 1 컨텐트를 변형하기 위한 맵핑 정보를 계산하기 위해, 복수의 사용자들(2911, 2912, 2913)에 대한 정보를 확인하고, 확인된 복수의 사용자들(2911, 2912, 2913)에 대한 정보를 기반으로 단일의 사용자의 시선에 대한 정보를 식별할 수 있다. 상기 복수의 사용자들(2911, 2912, 2913)에 대한 정보는 복수의 사용자들(2911, 2912, 2913)을 촬영함으로써 식별되는 정보(예: 등록 여부에 대한 정보, 제스쳐를 취하는지 여부에 대한 정보), 및 복수의 사용자들(2911, 2912, 2913)의 각각의 위치(예: 시선 위치, 무게 중심)와 연관된 정보를 포함할 수 있다. 이하에서는 전자 장치(101)의 복수의 사용자들(2911, 2912, 2913)에 대한 정보를 기반으로 단일의 사용자의 시선에 대한 정보를 식별하는 동작의 예들에 대해서 설명한다.
예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 도 29의 2901에 도시된 바와 같이 복수의 사용자들(2911, 2912, 2913)에 대한 정보를 기반으로 복수의 사용자들(2911, 2912, 2913) 중 일 사용자(2913)를 식별하고, 식별된 일 사용자(2913)의 시선과 연관된 정보를 식별할 수 있다. 일 예로, 전자 장치(101)는 복수의 사용자들(2911, 2912, 2913) 중 전자 장치(101)에 등록된 제 1 사용자를 식별하고, 상기 제 1 사용자의 시선과 연관된 정보를 식별할 수 있다. 전자 장치(101)는 제 1 사용자가 등록되는 경우 제 1 사용자에 대한 이미지(예: 얼굴 이미지)를 저장할 수 있다. 전자 장치(101)는 복수의 사용자가 촬영되는 경우, 촬영된 이미지로부터 식별되는 복수의 사용자들(2911, 2912, 2913)에 대한 얼굴 이미지와 미리 저장된 제 1 사용자의 얼굴 이미지를 비교함으로써 복수의 사용자들(2911, 2912, 2913)로부터 제 1 사용자를 식별할 수 있다. 다른 예로, 전자 장치(101)는 복수의 사용자들(2911, 2912, 2913) 중 가장 근접한 제 1 사용자를 식별하고, 식별된 상기 제 1 사용자의 시선과 연관된 정보를 식별할 수 있다. 또 다른 예로, 전자 장치(101)는 복수의 사용자들(2911, 2912, 2913) 중 지정된 제스쳐(예: 손을 흔듦, 손을 듦)를 취하는 제 1 사용자를 식별하고, 식별된 상기 제 1 사용자의 시선과 연관된 정보를 식별할 수 있다.
또 예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 도 30의 3001에 도시된 바와 같이 복수의 사용자들(2911, 2912, 2913)의 위치들과 연관된 복수의 정보들을 식별하고, 복수의 정보들을 기반으로 일 사용자의 시선과 연관된 정보를 식별할 수 있다. 일 예로, 전자 장치(101)는 복수의 사용자들(2911, 2912, 2913) 각각의 시선과 연관된 좌표를 식별하고, 식별된 시선과 연관된 좌표의 중심 좌표를 일 사용자의 시선과 연관된 정보로 식별할 수 있다. 다른 예로, 전자 장치(101)는 복수의 사용자들(2911, 2912, 2913)이 촬영된 이미지로부터 복수의 사용자들(2911, 2912, 2913)의 무게 중심 영역(3011)을 식별하고, 상기 무게 중심 영역(3011)을 맵핑 정보를 계산하기 위한 일 사용자의 시선과 연관된 정보로 식별할 수 있다.
다양한 실시예들에 따르면 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 2809 동작에서 형태에 대한 정보 및 식별된 단일의 사용자의 위치에 대한 정보를 기반으로, 변형된 제 1 컨텐트를 표시하고, 2811 동작에서 변형된 제 1 컨텐트가 표시되는 제 1 영역 이외의 제 2 영역 상에 배경 처리를 위하여 설정된 적어도 하나의 색을 표시할 수 있다. 예를 들어, 전자 장치는 도 29의 2902 및 도 30의 3002에 도시된 바와 같이 변형된 컨텐트(예: 2921, 3021)와 배경처리를 위한 적어도 하나의 색(예: 2922, 3022)를 표시할 수 있다. 전자 장치(101)의 2809 동작 내지 2811 동작은 상술한 전자 장치(101)의 709 동작 내지 711 동작과 동일 또는 유사하게 수행될 수 있으므로 중복되는 설명은 생략한다.
예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 식별된 일 사용자의 시선과 연관된 정보를 기반으로 제 1 컨텐트를 변형하여 표시할 수 있다. 도 29의 2902를 참조하면, 전자 장치(101)에 의해 변형되어 표시되는 제 1 컨텐트(2921)는 일 사용자(예: 제 1 사용자)에 의해 일 평면에서 시인될 수 있다.
또 예를 들어, 전자 장치(101)(예: 적어도 하나의 프로세서(620))는 복수의 사용자들(2911, 2912, 2913)에 대한 정보를 기반으로 식별된 사용자의 시선과 연관된 정보를 기반으로 제 1 컨텐트를 변형하여 표시할 수 있다. 도 30의 3002를 참조하면, 전자 장치(101)에 의해 변형되어 표시되는 제 1 컨텐트(3021)는 복수의 사용자들(2911, 2912, 2913)(예: 제 1 사용자)에 의해 일 평면에서 시인될 수 있다.
한편 다양한 실시예들에 따르면, 기재된 바에 국한되지 않고 전자 장치(101)는 도 31에 도시된 바와 같이 복수의 사용자들(3101, 3102)이 서로 상이한 위치(예: 제 1 하우징(812)과 제 2 하우징(813) 각각에 대향하는 위치)에 위치되는 경우, 복수의 사용자들(3101, 3102)의 시선과 연관된 정보들을 획득할 수 있다. 전자 장치(101)는 복수의 사용자들(3101, 3102)의 시선과 연관된 정보들을 기반으로 각각의 제 1 하우징(812)에 대응하는 가상의 제 1 평면에 제 1 컨텐트가 시인되도록 하기 위한 제 1 맵핑 정보(예: 제 1 호모그래피 값) 및 제 2 하우징(813)에 대응하는 가상의 제 2 평면에 제 1 컨텐트가 시인되도록 하기 위한 제 2 맵핑 정보(예: 제 2 호모그래피 값)를 계산할 수 있다. 전자 장치(101)는 제 1 컨텐트의 제 1 하우징(812)에 대응하는 제 1 서브 컨텐트(3111)를 제 1 맵핑 정보를 이용하여 변형하여 표시하고, 제 1 컨텐트의 제 2 하우징(813)에 대응하는 제 2 서브 컨텐트(3112)를 제 2 맵핑 정보를 이용하여 변형하여 표시할 수 있다. 예를 들어, 전자 장치(101)는 제 1 하우징(812)에 대응하는 디스플레이의 영역에 변형된 제 1 서브 컨텐트(3111)를 표시하고, 제 2 하우징(813)에 대응하는 디스플레이의 영역에 변형된 제 2 서브 컨텐트(3112)를 표시할 수 있다. 이에 따라, 도 31에 도시된 바와 같이, 전자 장치(101)에 표시되는 변형된 제 1 컨텐트(예: 제 1 서브 컨텐트(3111) 및 제 2 서브 컨텐트(3112))는 상이한 위치의 복수의 사용자들(3101, 3102)의 각각에 의해 각각의 평면(예: 가상의 제 1 평면 및 가상의 제 2 평면) 상에서 시인될 수 있다.
다양한 실시예들에 따르면, 폴더블 전자 장치(예: 도 6의 600)로서, 적어도 하나의 센서(예: 도 6a의 611), 힌지, 상기 힌지에 일 부분이 연결되는 제 1 하우징(예: 도 8의 812), 상기 힌지에 일 부분이 연결되는 제 2 하우징(예: 도 8의 813), 상기 제 1 하우징(예: 도 8의 812)과 상기 제 2 하우징(예: 도 8의 813) 상에 배치되는 플렉서블 디스플레이(예: 도 6a의 625), 적어도 하나의 프로세서(예: 도 6a의 620)를 포함하고, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 제 1 하우징(예: 도 8의 812) 및 상기 제 2 하우징(예: 도 8의 813) 사이의 폴딩 각도가 제 1 각도에 대응함에 기반하여, 제 1 컨텐트를 상기 플레서블 디스플레이에 표시하고, 상기 제 1 하우징(예: 도 8의 812) 및 상기 제 2 하우징(예: 도 8의 813) 사이의 상기 폴딩 각도가 상기 제 2 각도 범위에 대응함에 기반하여 상기 폴더블 전자 장치(예: 도 6a의 600)의 사용자의 시선과 연관된 정보(예: 도 8의 832)를 식별하고, 상기 폴딩 각도에 대한 정보(예: 도 8의 831) 및 상기 사용자의 시점 정보(예: 도 8의 832)에 대한 정보를 기반으로, 상기 제 1 컨텐트를 변형하여 상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이의 제 1 영역에 표시하고, 상기 플렉서블 디스플레이의 상기 제 1 영역과 다른 제 2 영역 상에 배경처리를 위하여 설정된 적어도 하나의 색을 표시하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 제 1 컨텐트는 영상 또는 이미지 중 적어도 하나를 포함하는, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 카메라(예: 도 6a의 612)를 더 포함하고, 상기 적어도 하나의 프로세서는 상기 카메라를 이용하여 촬영된 상기 폴더블 전자 장치의 사용자에 대한 이미지에 기반하여 상기 사용자의 일부에 대한 이차원 좌표 정보를 식별하고, 상기 이미지로부터 식별되는 상기 사용자의 일부의 크기에 기반하여 상기 사용자와 상기 폴더블 전자 장치 사이의 거리를 식별하고, 상기 이차원 좌표 정보 및 상기 거리를 기반으로 상기 사용자 시점 정보(예: 도 8의 832)를 식별하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 폴딩 각도(예: 도 8의 831) 및 상기 사용자의 시점 정보(예: 도 8의 832)를 기반으로, 상기 제 1 컨텐트를 변형하기 위한 맵핑 정보를 식별하고, 상기 제 1 컨텐트와 연관된 복수 개의 제 1 좌표들을 식별하고, 상기 식별된 복수 개의 제 1 좌표들 및 맵핑 정보를 기반으로 변경된 복수 개의 제 1 좌표들을 식별하고, 상기 변경된 복수 개의 제 1 좌표들에 기반하여, 상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이에 표시하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 폴딩 각도(예: 도 8의 831) 및 상기 사용자의 시점 정보(예: 도 8의 832)를 기반으로, 상기 제 1 컨텐트를 맵핑할 가상의 평면에 대한 정보를 식별하고, 상기 가상의 평면에 대한 정보 및 상기 사용자의 시선과 연관된 정보(예: 도 8의 832)를 기반으로, 상기 맵핑 정보를 계산하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 제 1 컨텐트가 표시되는 제 3 영역과 상기 변형된 제 1 컨텐트가 표시되는 제 1 영역을 비교하고, 상기 제 1 영역의 면적은 상기 제 3 영역의 면적 보다 작고, 상기 제 1 영역과 상기 제 3 영역의 비교 결과에 기반하여, 상기 적어도 하나의 색이 표시될 상기 제 2 영역을 식별하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 제 1 컨텐트의 제 1 색과는 다른 상기 색을 식별하고, 상기 색을 상기 제 2 영역 상에 표시하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 제 1 하우징(예: 도 8의 812)에 형성된 제 1 베젤, 및 상기 제 2 하우징(예: 도 8의 813)에 형성된 제 2 베젤을 더 포함하고, 상기 적어도 하나의 색은 상기 제 1 베젤의 색 또는 상기 제 2 베젤의 색 중 적어도 하나, 또는 상기 제 1 베젤의 색 또는 상기 제 2 베젤의 색 중 적어도 하나에 기반한 패턴 중 적어도 하나로 설정되는, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 제 1 컨텐트와 함께 제 1 그래픽 엘리먼트를 표시하고, 상기 제 1 그래픽 엘리먼트의 색을 식별하고, 상기 식별된 제 1 그래픽 엘리먼트의 색을 기반으로, 상기 색을 식별하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이 상에 표시하는 동안, 상기 제 1 그래픽 엘리먼트의 형상을 유지하도록 제어하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 폴딩 각도(예: 도 8의 831) 및 상기 사용자의 시점 정보(예: 도 8의 832)를 기반으로, 상기 제 1 하우징(예: 도 8의 812)에 대응하는 제 1 평면과 상기 제 2 하우징(예: 도 8의 813)에 대응하는 제 2 평면 중 하나의 평면을 식별하고, 상기 제 1 평면이 식별되는 경우, 상기 식별된 제 1 평면과 연관된 상기 맵핑 정보를 이용하여 상기 제 1 컨텐트를 변형하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 제 1 평면이 식별되는 경우, 상기 제 1 컨텐트의 상기 제 1 평면과 연관된 제 1 서브 컨텐트의 표시를 유지하면서, 상기 제 1 컨텐트의 상기 제 1 서브 컨텐트 이외의 제 2 서브 컨텐트를 변형하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이 상에 표시하면서 상기 제 2 영역 상에 제 2 컨텐트를 표시하도록 설정되고, 상기 제 1 컨텐트는 제 1 어플리케이션과 연관되고, 상기 제 2 컨텐트는 제 2 어플리케이션과 연관되는, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 플렉서블 디스플레이는 상기 제 1 하우징(예: 도 8의 812)과 연관된 제 3 영역과 상기 제 2 하우징(예: 도 8의 813)과 연관된 제 4 영역을 포함하고, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 사용자의 시선과 연관된 정보(예: 도 8의 832)를 기반으로 상기 제 3 영역과 상기 제 4 영역 중 상기 사용자에 대향하지 않는 하나의 영역을 식별하고, 상기 제 3 영역과 상기 제 4 영역 중 상기 제 3 영역이 식별되는 경우, 상기 플렉서블 디스플레이의 상기 제 3 영역에 상기 변형된 제 1 컨텐트를 표시하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 제 1 컨텐트의 표시를 폴더블 전자 장치(예: 도 6a의 600)의 표시 모드를 식별하고, 상기 식별된 폴더블 전자 장치(예: 도 6a의 600)의 표시 모드를 기반으로, 상기 제 1 컨텐트가 표시되는 형태를 식별하고, 상기 식별된 제 1 컨텐트의 표시되는 형태, 상기 폴딩 각도(예: 도 8의 831) 및 상기 사용자의 시점 정보(예: 도 8의 832)를 기반으로, 상기 제 1 컨텐트를 변형하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 복수의 사용자들이 식별되는 경우, 상기 복수의 사용자들과 연관된 정보를 기반으로 상기 사용자의 시점 정보(예: 도 8의 832)를 식별하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.
다양한 실시예들에 따르면, 폴더블 전자 장치(예: 도 6a의 600)의 동작 방법으로서, 상기 폴더블 전자 장치(예: 도 6a의 600)의 제 1 하우징(예: 도 8의 812) 및 제 2 하우징(예: 도 8의 813) 간 폴딩 각도가 제 1 각도 범위에 대응함에 기반하여, 제 1 컨텐트를 상기 플레서블 디스플레이에 표시하는 동작, 상기 제 1 하우징(예: 도 8의 812) 및 상기 제 2 하우징(예: 도 8의 813) 간 상기 폴딩 각도가 제 2 각도 범위에 대응함에 기반하여 상기 폴더블 전자 장치(예: 도 6a의 600)의 사용자의 시점 정보(예: 도 8의 832)(예 3차원 시선 좌표)를 식별하는 동작, 상기 폴딩 각도(예: 도 8의 831) 및 상기 사용자의 시점 정보(예: 도 8의 832)에 대한 정보를 기반으로, 상기 제 1 컨텐트를 변형하여 상기 변형된 제 1 컨텐트를 상기 전자 장치(예: 도 6a의 600)의 플렉서블 디스플레이의 제 1 영역에 표시하는 동작, 및 상기 제 1 영역과는 다른 제 2 영역에 배경처리를 위하여 설정된 적어도 하나의 색을 표시하는 동작을 포함하는, 동작 방법이 제공될 수 있다.
다양한 실시예들에 따르면, 상기 제 1 컨텐트는 영상 또는 이미지 중 적어도 하나를 포함하는, 동작 방법이 제공될 수 있다.
다양한 실시예들에 따르면, 상기 폴딩 각도(예: 도 8의 831) 및 상기 사용자의 시점 정보(예: 도 8의 832)를 기반으로, 상기 제 1 컨텐트를 변형하기 위한 맵핑 정보를 식별하는 동작, 상기 제 1 컨텐트와 연관된 복수 개의 제 1 좌표들을 식별하는 동작, 상기 식별된 복수 개의 제 1 좌표들에 상기 맵핑 정보를 반영하여 변경된 복수 개의 제 1 좌표들을 식별하는 동작, 및 상기 변경된 복수 개의 제 1 좌표들에 기반하여, 상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이에 표시하는 동작을 포함하는, 동작 방법이 제공될 수 있다.
다양한 실시예들에 따르면, 상기 폴딩 각도(예: 도 8의 831) 및 상기 사용자의 시점 정보(예: 도 8의 832)를 기반으로, 상기 제 1 컨텐트를 맵핑할 가상의 평면에 대한 정보를 식별하는 동작, 및 상기 가상의 평면에 대한 정보 및 상기 사용자의 시점 정보(예: 도 8의 832)를 기반으로, 상기 맵핑 정보를 계산하는 동작을 포함하는, 동작 방법이 제공될 수 있다.
다양한 실시예들에 따르면, 폴더블 전자 장치(예: 도 6a의 600)로서, 적어도 하나의 센서(예: 도 6a의 611), 힌지, 상기 힌지에 일 부분이 연결되는 제 1 하우징(예: 도 8의 812), 상기 힌지에 일 부분이 연결되는 제 2 하우징(예: 도 8의 813), 상기 제 1 하우징(예: 도 8의 812)과 상기 제 2 하우징(예: 도 8의 813) 상에 배치되는 플렉서블 디스플레이, 적어도 하나의 프로세서(예: 도 6a의 620)를 포함하고, 상기 적어도 하나의 프로세서(예: 도 6a의 620)는 상기 제 1 하우징(예: 도 8의 812) 및 상기 제 2 하우징(예: 도 8의 813) 간 폴딩 각도가 제 1 각도 범위에 대응함에 기반하여, 제 1 컨텐트의 제 1 서브 컨테트를 상기 플렉서블 디스플레이의 제 1 영역에 표시하고, 상기 제 1 컨텐트의 제 2 서브 컨텐트를 상기 플렉서블 디스플레이의 제 2 영역에 표시하고, 상기 제 1 하우징(예: 도 8의 812) 및 상기 제 2 하우징(예: 도 8의 813) 간 상기 폴딩 각도가 제 2 각도 범위에 대응함에 기반하여 상기 폴더블 전자 장치(예: 도 6a의 600)의 사용자의 시점 정보(예: 도 8의 832)를 식별하고, 상기 제 1 서브 컨텐트를 상기 제 1 영역에 표시하면서, 상기 제 2 정보(예: 도 8의 831) 및 상기 사용자의 시점 정보(예: 도 8의 832)에 대한 정보를 기반으로, 상기 제 2 서브 컨텐트를 변형하여 상기 변형된 제 2 컨텐트를 상기 제 2 영역에 표시하도록 설정된, 폴더블 전자 장치(예: 도 6a의 600)가 제공될 수 있다.

Claims (15)

  1. 폴더블 전자 장치로서,
    적어도 하나의 센서;
    힌지;
    상기 힌지에 일 부분이 연결되는 제 1 하우징;
    상기 힌지에 일 부분이 연결되는제 2 하우징;
    상기 제 1 하우징과 상기 제 2 하우징 상에 배치되는 플렉서블 디스플레이;
    적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는:
    상기 제 1 하우징 및 상기 제 2 하우징 간 폴딩 각도가 제 1 각도 범위에 대응함에 기반하여, 제 1 컨텐트를 상기 플레서블 디스플레이에 표시하고,
    상기 제 1 하우징 및 상기 제 2 하우징 간 상기 폴딩 각도가 제 2 각도 범위에 대응함에 기반하여:
    상기 폴더블 전자 장치의 사용자시점 정보를 식별하고,
    상기 폴딩 각도 및 상기 사용자 시점 정보를 기반으로, 상기 제 1 컨텐트를 변형하여 상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이의 제 1 영역에 표시하고,
    상기 플렉서블 디스플레이의 상기 제 1 영역과 다른 제 2 영역에 배경처리를 위하여 설정된 적어도 하나의 색을 표시하도록 설정된,
    폴더블 전자 장치.
  2. 제 1 항에 있어서,
    상기 제 1 컨텐트는 영상 또는 이미지 중 적어도 하나를 포함하는,
    폴더블 전자 장치.
  3. 제 1 항에 있어서,
    카메라;를 더 포함하고,
    상기 적어도 하나의 프로세서는:
    상기 카메라를 이용하여 촬영된 상기 폴더블 전자 장치의 사용자에 대한 이미지에 기반하여 상기 사용자의 일부에 대한 이차원 좌표 정보를 식별하고,
    상기 이미지로부터 식별되는 상기 사용자의 일부의 크기에 기반하여 상기 사용자와 상기 폴더블 전자 장치 사이의 거리를 식별하고,
    상기 이차원 좌표 정보 및 상기 거리를 기반으로 상기 사용자 시점 정보를 식별하도록 설정된,
    폴더블 전자 장치.
  4. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는:
    상기 폴딩 각도 및 상기 사용자의 시점 정보를 기반으로, 상기 제 1 컨텐트를 변형하기 위한 맵핑 정보를 식별하고,
    상기 제 1 컨텐트와 연관된 복수 개의 제 1 좌표들을 식별하고,
    상기 식별된 복수 개의 제 1 좌표들 및 상기 맵핑 정보를 반영하여 변경된 복수 개의 제 1 좌표들을 식별하고,
    상기 변경된 복수 개의 제 1 좌표들에 기반하여, 상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이에 표시하도록 설정된,
    폴더블 전자 장치.
  5. 제 4 항에 있어서,
    상기 적어도 하나의 프로세서는:
    상기 폴딩 각도 및 상기 사용자 시점 정보를 기반으로, 상기 제 1 컨텐트를 맵핑할 가상의 평면에 대한 정보를 식별하고,
    상기 가상의 평면에 대한 정보 및 상기 사용자 시점 정보를 기반으로, 상기 맵핑 정보를 계산하도록 설정된,
    폴더블 전자 장치.
  6. 제 5 항에 있어서,
    상기 적어도 하나의 프로세서는:
    상기 제 1 컨텐트가 표시되는 제 3 영역과 상기 변형된 제 1 컨텐트가 표시되는 제 1 영역을 비교하고, 상기 제 1 영역의 면적은 상기 제 3 영역의 면적 보다 작고,
    상기 제 1 영역과 상기 제 3 영역의 비교 결과에 기반하여, 상기 적어도 하나의 색이 표시될 상기 제 2 영역을 식별하도록 설정된,
    폴더블 전자 장치.
  7. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는:
    상기 제 1 컨텐트의 제 1 색과는 다른 상기 적어도 하나의 색을 식별하고,
    상기 적어도 하나의 색을 상기 제 2 영역 상에 표시하도록 설정된,
    폴더블 전자 장치.
  8. 제 7 항에 있어서,
    상기 제 1 하우징에 형성된 제 1 베젤; 및
    상기 제 2 하우징에 형성된 제 2 베젤;을 더 포함하고,
    상기 적어도 하나의 색은 상기 제 1 베젤의 색 또는 상기 제 2 베젤의 색 중 적어도 하나, 또는 상기 제 1 베젤의 색 또는 상기 제 2 베젤의 색 중 적어도 하나에 기반한 패턴 중 적어도 하나로 설정되는,
    폴더블 전자 장치.
  9. 제 7 항에 있어서,
    상기 적어도 하나의 프로세서는:
    상기 제 1 컨텐트와 함께 제 1 그래픽 엘리먼트를 표시하고,
    상기 제 1 그래픽 엘리먼트의 색을 식별하고,
    상기 식별된 제 1 그래픽 엘리먼트의 색을 기반으로, 상기 적어도 하나의 색을 식별하고,
    상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이 상에 표시하는 동안, 상기 제 1 그래픽 엘리먼트의 형상을 유지하도록 제어하도록 설정된,
    폴더블 전자 장치.
  10. 제 2 항에 있어서,
    상기 적어도 하나의 프로세서는:
    상기 폴딩 각도 및 상기 사용자 시점 정보를 기반으로, 상기 제 1 하우징에 대응하는 제 1 평면과 상기 제 2 하우징에 대응하는 제 2 평면 중 하나의 평면을 식별하고,
    상기 제 1 평면이 식별되는 경우, 상기 제 1 컨텐트의 상기 제 1 평면과 연관된 제 1 서브 컨텐트의 표시를 유지하면서, 상기 식별된 제 1 평면과 연관된 상기 맵핑 정보를 이용하여 상기 제 1 컨텐트의 상기 제 2 평면과 연관된 제 2 서브 컨텐트를 변형하도록 설정된,
    폴더블 전자 장치.
  11. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는:
    상기 변형된 제 1 컨텐트를 상기 플렉서블 디스플레이 상에 표시하면서 상기 제 2 영역 상에 제 2 컨텐트를 표시하도록 설정되고,
    상기 제 1 컨텐트는 제 1 어플리케이션과 연관되고, 상기 제 2 컨텐트는 제 2 어플리케이션과 연관되는,
    폴더블 전자 장치.
  12. 제 1 항에 있어서, 상기 플렉서블 디스플레이는 상기 제 1 하우징과 연관된 제 3 영역과 상기 제 2 하우징과 연관된 제 4 영역을 포함하고,
    상기 적어도 하나의 프로세서는:
    상기 사용자 시점 정보를 기반으로 상기 제 3 영역과 상기 제 4 영역 중 상기 사용자에 대향하지 않는 하나의 영역을 식별하고,
    상기 제 3 영역과 상기 제 4 영역 중 상기 제 3 영역이 식별되는 경우, 상기 플렉서블 디스플레이의 상기 제 3 영역에 상기 변형된 제 1 컨텐트를 표시하도록 설정된,
    폴더블 전자 장치.
  13. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는:
    상기 제 1 컨텐트의 표시를 폴더블 전자 장치의 표시 모드를 식별하고,
    상기 식별된 폴더블 전자 장치의 표시 모드를 기반으로, 상기 제 1 컨텐트가 표시되는 형태를 식별하고,
    상기 식별된 제 1 컨텐트의 표시되는 형태, 상기 폴딩 각도 및 상기 사용자 시점 정보를 기반으로, 상기 제 1 컨텐트를 변형하도록 설정된,
    폴더블 전자 장치.
  14. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는:
    복수의 사용자들이 식별되는 경우, 상기 복수의 사용자들과 연관된 정보를 기반으로 상기 사용자 시점 정보를 식별하도록 설정된,
    폴더블 전자 장치.
  15. 폴더블 전자 장치의 동작 방법으로서,
    상기 폴더블 전자 장치의 제 1 하우징 및 제 2 하우징 간 폴딩 각도가 제 1 각도 범위에 대응함에 기반하여, 제 1 컨텐트를 상기 플레서블 디스플레이에 표시하는 동작;
    상기 제 1 하우징 및 상기 제 2 하우징 간 상기 폴딩 각도가 제 2 각도 범위에 대응함에 기반하여:
    상기 폴더블 전자 장치의 사용자의 시점 정보를 식별하는 동작;
    상기 폴딩 각도 및 상기 사용자의 시점 정보에 대한 정보를 기반으로, 상기 제 1 컨텐트를 변형하여 상기 변형된 제 1 컨텐트를 상기 폴더블 전자 장치의 플렉서블 디스플레이의 제 1 영역에 표시하는 동작; 및
    상기 제 1 영역과 다른 제 2 영역에 배경처리를 위하여 설정된 적어도 하나의 색을 표시하는 동작;을 포함하는,
    동작 방법.
PCT/KR2021/007917 2020-07-10 2021-06-23 컨텐트를 표시하기 위한 전자 장치 및 그 동작 방법 WO2022010138A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0085745 2020-07-10
KR1020200085745A KR20220007469A (ko) 2020-07-10 2020-07-10 컨텐트를 표시하기 위한 전자 장치 및 그 동작 방법

Publications (1)

Publication Number Publication Date
WO2022010138A1 true WO2022010138A1 (ko) 2022-01-13

Family

ID=79553309

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/007917 WO2022010138A1 (ko) 2020-07-10 2021-06-23 컨텐트를 표시하기 위한 전자 장치 및 그 동작 방법

Country Status (2)

Country Link
KR (1) KR20220007469A (ko)
WO (1) WO2022010138A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029732A1 (ko) * 2022-08-03 2024-02-08 삼성전자주식회사 시각적 왜곡 보정을 위한 전자 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140025931A (ko) * 2012-08-23 2014-03-05 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 제어 방법
KR20140096861A (ko) * 2013-01-29 2014-08-06 삼성디스플레이 주식회사 모바일 장치 및 이의 구동 방법
KR20150031986A (ko) * 2013-09-17 2015-03-25 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR20160108705A (ko) * 2015-03-05 2016-09-20 삼성디스플레이 주식회사 표시 장치
KR20180050631A (ko) * 2014-07-31 2018-05-15 삼성전자주식회사 플렉서블 디바이스의 인터페이싱 방법 및 플렉서블 디바이스
KR20200014878A (ko) * 2014-05-23 2020-02-11 삼성전자주식회사 폴더블 디바이스 및 그 제어 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140025931A (ko) * 2012-08-23 2014-03-05 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 제어 방법
KR20140096861A (ko) * 2013-01-29 2014-08-06 삼성디스플레이 주식회사 모바일 장치 및 이의 구동 방법
KR20150031986A (ko) * 2013-09-17 2015-03-25 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR20200014878A (ko) * 2014-05-23 2020-02-11 삼성전자주식회사 폴더블 디바이스 및 그 제어 방법
KR20180050631A (ko) * 2014-07-31 2018-05-15 삼성전자주식회사 플렉서블 디바이스의 인터페이싱 방법 및 플렉서블 디바이스
KR20160108705A (ko) * 2015-03-05 2016-09-20 삼성디스플레이 주식회사 표시 장치

Also Published As

Publication number Publication date
KR20220007469A (ko) 2022-01-18

Similar Documents

Publication Publication Date Title
WO2020230982A1 (ko) 전자 장치 및 그의 알림 제공 방법
WO2021141454A1 (en) Camera module and electronic device including the same
WO2022055322A1 (ko) 폴더블 전자 장치의 디스플레이 화면 제어 방법 및 그 폴더블 전자 장치
WO2022010138A1 (ko) 컨텐트를 표시하기 위한 전자 장치 및 그 동작 방법
WO2022097930A1 (ko) 전자 장치 및 이의 디스플레이 방법
WO2022080990A1 (ko) 전자 장치 및 그의 형태에 기초한 기능 제어 방법
WO2022098204A1 (ko) 가상현실 서비스를 제공하는 전자 장치 및 방법
WO2022025400A1 (ko) 전자 펜과 연동된 화면 분할 제공 방법 및 이를 이용한 폴더블 전자 장치
WO2024071730A1 (ko) 디바이스간 데이터 동기화 방법 및 그 전자 장치
WO2024029732A1 (ko) 시각적 왜곡 보정을 위한 전자 장치 및 방법
WO2022149866A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그 동작 방법
WO2023101436A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그 동작 방법
WO2024063432A1 (ko) 전자 장치의 어플리케이션 실행 화면 제어 방법 및 그 전자 장치
WO2022119332A1 (ko) 스트레처블 디스플레이를 포함하는 전자 장치
WO2022108379A1 (ko) 확장 가능한 디스플레이를 포함하는 전자 장치 및 컨텐츠 제공 방법
WO2022103070A1 (ko) 전자 장치 및 사용자 인터페이스 표시 방법
WO2024048987A1 (ko) 힌지 또는 모터의 움직임 따라 비디오를 재생하는 전자 장치
WO2023204419A1 (ko) 디스플레이로부터 방출되는 빛의 세기에 기반한 디스플레이의 표시 영역을 조절하기 위한 전자 장치, 및 방법
WO2022203285A1 (ko) 이미지 안정화 어셈블리를 포함하는 카메라 모듈 및 상기 카메라 모듈을 포함하는 전자 장치
WO2024034838A1 (ko) 복수의 디스플레이들을 통해 화면을 표시하기 위한 전자 장치 및 방법
WO2022045579A1 (ko) 외부 장치의 위치를 보정하기 위한 전자 장치 및 그의 동작 방법
WO2024054041A1 (ko) 컨텐트를 처리하기 위한 방법 및 이를 지원하는 전자 장치
WO2022103035A1 (ko) 플렉서블 디스플레이를 갖는 웨어러블 장치 및 그의 상태 변경에 따른 운영 방법
WO2022239931A1 (ko) 전자 장치 및 전자 장치에서 이미지 촬영 방법
WO2022131784A1 (ko) 증강 현실 콘텐츠를 제공하는 전자 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21837343

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21837343

Country of ref document: EP

Kind code of ref document: A1