WO2022119398A1 - 플랙서블 전자 장치 및 이의 아바타 서비스 운용 방법 - Google Patents

플랙서블 전자 장치 및 이의 아바타 서비스 운용 방법 Download PDF

Info

Publication number
WO2022119398A1
WO2022119398A1 PCT/KR2021/018272 KR2021018272W WO2022119398A1 WO 2022119398 A1 WO2022119398 A1 WO 2022119398A1 KR 2021018272 W KR2021018272 W KR 2021018272W WO 2022119398 A1 WO2022119398 A1 WO 2022119398A1
Authority
WO
WIPO (PCT)
Prior art keywords
avatar
display
space
display area
electronic device
Prior art date
Application number
PCT/KR2021/018272
Other languages
English (en)
French (fr)
Inventor
박미지
강형광
오영학
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP21901086.5A priority Critical patent/EP4224281A4/en
Publication of WO2022119398A1 publication Critical patent/WO2022119398A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1628Carrying enclosures containing additional elements, e.g. case for a laptop and a printer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Definitions

  • Various embodiments relate to a flexible electronic device including an expandable display and a method for operating an avatar thereof.
  • the electronic device may provide the user with an avatar service that allows the user to indirectly express his/her emotions by photographing an avatar or by applying a facial expression, motion, or text to the avatar.
  • the avatar is utilized in a virtual reality or augmented reality platform, or an online game service.
  • the flexible electronic device arranges the flexible display in a space formed by the first housing and the second housing, and the flexible display may be expanded or contracted by sliding movement between the first housing and the second housing. Due to this, the display area of the flexible electronic device may be reduced or expanded in a display area in which visual information is to be displayed.
  • an electronic device with a limited or fixed display size has a limited range for expressing an avatar, there may be a limitation in providing a service through a motion or animation activity with a narrow action range. .
  • the electronic device may increase the range of actions capable of expressing the avatar, and may provide extended avatar content that can be expressed within the increased range of actions.
  • a flexible electronic device includes a first housing, a second housing disposed to be movable in a first direction or a second direction with respect to the first housing, and a second housing with respect to the first housing a driving device driven to move, the second housing having a first display area when the second housing is moved in a first direction with respect to the first housing, wherein the driving device causes the second housing to move from the first housing in a second direction a display extending to the first display area and the second display area when moving to and a processor operatively connected to the display and the driving device, wherein the processor is configured to display visual information on the display when the avatar service is executed.
  • a virtual first space to express the avatar is derived by analyzing a space element in the background image corresponding to the first display area, and based on the characteristic information of the avatar, the An avatar of a first posture expressible in a first space is provided, and an active area of the display is extended from the first display area to at least a part of the second display area, and the display area is displayed in the first and second display areas.
  • to derive a virtual second space by analyzing a spatial element in the corresponding background image, and to provide at least one of an avatar of a second posture that can be expressed in the second space and an extended service function based on the characteristic information of the avatar can be set.
  • a flexible electronic device includes a first housing, a second housing disposed to be movable in a first direction or a second direction with respect to the first housing, and a second housing with respect to the first housing a driving device driven to move, the second housing having a first display area when the second housing is moved in a first direction with respect to the first housing, wherein the driving device causes the second housing to move from the first housing in a second direction a display extending to the first display area and the second display area when moving to, and a processor operatively connected to the display and the driving device, wherein the processor is configured to display a background image to be displayed when the avatar service is executed acquiring, tracking an area of an active region in which visual information is to be displayed on the display based on the state of the electronic device, determining a cropping region in the acquired background image corresponding to the area of the active region, and determining the determined cropping region
  • An avatar service user interface is created by analyzing spatial elements included in the betting area to derive a virtual
  • the second housing in a method for operating an avatar of a flexible electronic device, has a first display area when the second housing moves in a first direction with respect to the first housing, and the second housing moves in a second direction from the first housing.
  • the flexible electronic device changes the behavior range of Atava according to the extended information of the display to correspond to the changed behavior range or converts the avatar contents to the expanded avatar contents to provide the avatar service adaptively changed according to the situation to the user. can be provided to
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure
  • FIG. 2A is a front perspective view of an electronic device in a closed state according to an exemplary embodiment
  • FIG. 2B is a rear perspective view of an electronic device in a closed state according to an exemplary embodiment
  • 3A is a front perspective view of an electronic device in an open state according to an exemplary embodiment
  • 3B is a rear perspective view of an electronic device in an open state according to an exemplary embodiment
  • FIG. 4 is an exploded perspective view of the electronic device of FIG. 2A according to an exemplary embodiment.
  • FIG. 5 is a block diagram of an electronic device according to an exemplary embodiment.
  • FIG. 6 illustrates a method of operating an avatar in a flexible electronic device according to an exemplary embodiment.
  • FIG. 7 illustrates a method of operating an avatar in a flexible electronic device according to an exemplary embodiment.
  • FIG. 8 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • FIG. 9 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • FIG. 10 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • FIG. 11 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • FIG. 12 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • FIG. 13 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • FIG. 14 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. have.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 or an external electronic device (eg, a sound output module 155 ) directly or wirelessly connected to the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, underside) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or part of the operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • 2A is a front perspective view of the electronic device 101 in a closed state according to an exemplary embodiment.
  • 2B is a rear perspective view of the electronic device 101 in a closed state according to an exemplary embodiment.
  • 3A is a front perspective view of the electronic device 101 in an open state according to an exemplary embodiment.
  • 3B is a rear perspective view of the electronic device 101 in an open state according to an exemplary embodiment.
  • the electronic device 101 of FIG. 2A may include the electronic device 101 of FIG. 1 .
  • the electronic device 101 may be implemented to expand the screen 2301 in a sliding manner.
  • the screen 2301 may be an externally viewed area of the flexible display 230 .
  • 2A and 2B show the electronic device 101 in a state in which the screen 2301 is not expanded
  • FIGS. 3A and 3B show the electronic device 101 in a state in which the screen 2301 is expanded.
  • a state in which the screen 2301 is not expanded is a state in which the sliding plate 220 for a sliding motion of the display 230 is not slid-out, and may be referred to as a 'closed state' hereinafter. .
  • the expanded state of the screen 2301 is a state in which the screen 2301 is no longer expanded due to the sliding out of the sliding plate 220 and may be referred to as an 'open state' hereinafter.
  • the slide-out may refer to at least a partial movement of the sliding plate 220 in the first direction (eg, the +x axis direction) when the electronic device 101 is switched from the closed state to the open state.
  • the open state may be defined as a state in which the screen 2301 is expanded compared to the closed state, and screens of various sizes may be provided according to the moving position of the sliding plate 220 .
  • the intermediated state may refer to a state between the closed state of FIG. 2A and the open state of FIG. 3A .
  • the screen 2301 may include an active area (or display area, display area) of the flexible display 230 that is visually exposed to output an image, and the electronic device 101 is a sliding plate.
  • An active area (or a display area, a display area) may be adjusted according to the movement of 220 or the movement of the flexible display 230 .
  • the open state may refer to a state in which the screen 2301 is maximized.
  • the flexible display 230 that is slidably disposed on the electronic device 101 of FIG. 2A and provides the screen 2301 is a 'slide-out display (slide-out display) or an 'expandable display ( expandable display).
  • the electronic device 101 may include a sliding structure related to the flexible display 230 .
  • a sliding structure related to the flexible display 230 .
  • the flexible display 230 when moved to a set distance by an external force, due to the elastic structure included in the sliding structure, it will be switched from the closed state to the open state or from the open state to the closed state without any external force. (eg semi-automatic slide motion).
  • a driving device such as a motor connected to the flexible display 230 (eg, the electronic device 185 of FIG. 1 )
  • the device 101 may switch from a closed state to an open state, or from an open state to a closed state.
  • a signal is generated through a hardware button or a software button provided through a screen, the electronic device 101 ) can be switched from a closed state to an open state, or from an open state to a closed state.
  • the electronic device 101 when a signal is generated from various sensors such as a pressure sensor, the electronic device 101 may be switched from a closed state to an open state or from an open state to a closed state.
  • a squeeze gesture in which a part of the hand (eg, the palm of the hand or a finger) presses within a specified area of the electronic device 101 may cause the sensor may be detected, and in response, the electronic device 101 may be switched from a closed state to an open state or from an open state to a closed state.
  • the display 230 may include a second section (2 refer to FIG. 3A ).
  • the second section 2 may include an extended portion of the screen 2301 when the electronic device 101 is switched from the closed state to the open state.
  • the second section 2 is drawn out from the internal space of the electronic device 101 in a sliding manner, and thus the screen 2301 can be expanded.
  • the second section (2) At least a part of the second section (2) slides into the internal space of the electronic device 101, thereby reducing the screen 2301.
  • the flexible display 230 may include polyimide (PI) or polyester (PET).
  • PI polyimide
  • PET polyester
  • polyester may include a flexible substrate (eg, a plastic substrate) formed of a polymer material including a flexible display when the electronic device 101 switches between an open state and a closed state.
  • a bent portion at 230 for example, it may be referred to as a bendable section, in the following description, the second section (2) will be referred to as a bendable section.
  • the electronic device 101 may include a housing 210 , a sliding plate 220 , or a flexible display 230 .
  • the housing (or case) 210 includes, for example, a back cover 212 , a first side cover 213 , or a second side cover 214 . can do.
  • the back cover 212 , the first side cover 213 , or the second side cover 214 may be connected to a support member (not shown) positioned inside the electronic device 101 , and It may form at least a part of the appearance.
  • the back cover 212 may form, for example, at least a part of the rear surface 101B of the electronic device 101 .
  • the back cover 212 may be substantially opaque.
  • the back cover 212 may be formed by coated or tinted glass, ceramic, polymer, metal (eg, aluminum, stainless steel (STS), or magnesium), or a combination of at least two of the foregoing. have.
  • the bendable section of the flexible display 230 in a state (eg, closed state) inserted into the inner space of the housing 210), the bendable section (2 at least a part of the back cover ( It may be arranged to be visible from the outside through 212.
  • the back cover 212 may be formed of a transparent material and/or a translucent material.
  • the back cover 212 may include a flat portion 212a and curved portions 212b and 212c positioned at opposite sides with the flat portion 212a interposed therebetween.
  • the curved portions 212b and 212c are formed adjacent to both relatively long edges (not shown) of the back cover 212 , respectively, and may be bent toward the screen positioned opposite to the back cover 212 to extend seamlessly.
  • the back cover 212 may include one of the curved portions 212b and 212c or may be implemented without the curved portions 212b and 212c.
  • the first side cover 213 and the second side cover 214 may be positioned opposite to each other.
  • the first side cover 213 and the second side cover 214 may move in a second direction (eg, the +x axis direction) orthogonal to the first direction (eg, the +x axis direction) of the slide out of the sliding plate 220 . y-axis direction), with the flexible display 230 interposed therebetween, and may be positioned opposite to each other.
  • the first side cover 213 may form at least a portion of the first side surface 213a of the electronic device 101
  • the second side cover 214 may be disposed in a direction opposite to the first side surface 213a.
  • the first side cover 213 may include a first rim portion (or a first rim) 213b extending from an edge of the first side cover 213a.
  • the first edge portion 213b may form at least a part of one side bezel of the electronic device 101 .
  • the second side cover 214 may include a second edge portion (or second rim) 214b extending from an edge of the second side surface 214a.
  • the second edge portion 214b may form at least a part of the other bezel of the electronic device 101 . According to an embodiment, in the closed state of FIG.
  • the surface of the first edge part 213b, the surface of the second edge part 214b, and the surface of the sliding plate 220 are smoothly connected, so that the A side curved portion (not shown) corresponding to the first curved portion 230b may be formed.
  • the surface of the first edge part 213b or the surface of the second edge part 214b is the second curved part 230c of the screen 2301 positioned on the opposite side to the first curved part 230b.
  • the sliding plate 220 may slide on a support member (not shown) positioned inside the electronic device 101 . At least a portion of the flexible display 230 may be disposed on the sliding plate 220, and the closed state of FIG. 2A or the open state of FIG. 3A may be formed based on the position of the sliding plate 220 on the support member.
  • the flexible display 230 may be attached to the sliding plate 120 through an adhesive member (or an adhesive member) (not shown).
  • the adhesive member may include a thermally responsive adhesive member, a photoreactive adhesive member, a general adhesive, and/or a double-sided tape.
  • the flexible display 230 may be inserted into a recess formed in the sliding plate 220 in a sliding manner to be disposed and fixed to the sliding plate 220 .
  • the sliding plate 230 serves to support at least a portion of the flexible display 230 , and may be referred to as a display support structure in some embodiments.
  • the sliding plate 220 includes a third edge portion 220b that forms an outer surface of the electronic device 101 (eg, a surface exposed to the outside to form an exterior of the electronic device 101 ). can do.
  • the third edge part 220b may form a bezel around the screen together with the first edge part 213b and the second edge part 214b.
  • the third edge portion 220b may extend in the second direction (eg, the y-axis direction) to connect one end of the first side cover 213 and one end of the second side cover 214 in the closed state. have.
  • the surface of the third edge part 220b may be smoothly connected to the surface of the first edge part 213b and/or the surface of the second edge part 214b.
  • the bendable section 2 comes out from the inside of the electronic device 101 and the screen 2301 is expanded as shown in FIG. 3A ( eg open state) may be provided.
  • the screen 2301 in the closed state of FIG. 2A , includes a flat portion 230a, and a first curved portion 230b and/or located opposite to each other with the flat portion 230a interposed therebetween. It may include a second curved portion 230c.
  • the first curved portion 230b and the second curved portion 230c may be substantially symmetrical with the flat portion 230a interposed therebetween.
  • the first curved portion 230b and/or the second curved portion 230c may be positioned to correspond to the curved portions 212b and 212c of the back cover 212, respectively, and , may be curved toward the back cover 212 .
  • the planar portion 230a may be expanded.
  • a portion of the bendable section (2) forming the second curved portion 230c in the closed state of FIG. 2A is an expanded flat portion ( 230a) and may be formed as another area of the bendable section (2).
  • the electronic device 101 may include an opening (not shown) for entering or withdrawing the bendable section (2), and/or a pulley (not shown) positioned in the opening.
  • the pulley can be positioned corresponding to the bendable section (2, and the movement of the bendable section (2 and its movement direction can be guided through rotation of the pulley in the transition between the closed state of FIG. 2A and the open state of FIG. 3A )
  • the first curved portion 230b may be formed to correspond to a curved surface formed on one surface of the sliding plate 220.
  • the second curved portion 230c is located in a portion corresponding to the curved surface of the pulley in the bendable section (2).
  • the first curved portion 230c may be positioned opposite to the second curved portion 230b in the closed or open state of the electronic device 101 to improve the aesthetics of the screen 2301 .
  • the flat portion 230a may be implemented in an expanded form without the first curved portion 230b.
  • the flexible display 230 may further include a touch sensing circuit (eg, a touch sensor).
  • the flexible display 230 may include a pressure sensor capable of measuring the intensity (pressure) of a touch and/or a digitizer detecting a magnetic field type pen input device (eg, a stylus pen). It may be combined with or disposed adjacent to.
  • the digitizer may include a coil member disposed on a dielectric substrate to detect a resonance frequency of an electromagnetic induction method applied from the pen input device.
  • the electronic device 101 includes a microphone hole 251 (eg, the input module 150 of FIG. 1 ), a speaker hole 252 (eg, the sound output module 155 of FIG. 1 ), and a connector. It may include a hole 253 (eg, the connection terminal 178 of FIG. 1 ), a camera module 254 (eg, the camera module 180 of FIG. 1 ), or a flash 255 . According to various embodiments, the flash 255 may be implemented by being included in the camera module 254 . In some embodiments, the electronic device 101 may omit at least one of the components or additionally include other components.
  • the microphone hole 251 may be formed, for example, in at least a portion of the second side surface 214a corresponding to a microphone (not shown) positioned inside the electronic device 101 .
  • the position of the microphone hole 251 is not limited to the embodiment of FIG. 2A and may vary.
  • the electronic device 101 may include a plurality of microphones capable of detecting the direction of sound.
  • the speaker hole 252 may be formed, for example, in at least a portion of the second side surface 214a corresponding to a speaker located inside the electronic device 101 .
  • the location of the speaker hole 252 is not limited to the embodiment of FIG. 2A and may vary.
  • the electronic device 101 may include a call receiver hole.
  • the microphone hole 251 and the speaker hole 252 may be implemented as one hole, or the speaker hole 252 may be omitted like a piezo speaker.
  • the connector hole 253 may be formed, for example, in at least a portion of the second side surface 214a corresponding to a connector (eg, a USB connector) positioned inside the electronic device 101 .
  • the electronic device 101 may transmit and/or receive power and/or data to and/or from an external electronic device electrically connected to the connector through the connector hole 253 .
  • the location of the connector hole 253 is not limited to the embodiment of FIG. 2A and may vary.
  • the camera module 254 and the flash 255 may be located, for example, on the rear surface 101B of the electronic device 101 .
  • the camera module 154 may include one or more lenses, an image sensor, and/or an image signal processor.
  • the flash 255 may include, for example, a light emitting diode or a xenon lamp.
  • two or more lenses (infrared cameras, wide angle and telephoto lenses) and image sensors may be located on one side of the electronic device 101 . According to various embodiments, it is not limited to the embodiment of FIG. 2B or 3B , and the electronic device 101 may include a plurality of camera modules.
  • the camera module 254 may be one of a plurality of camera modules.
  • the electronic device 101 may include a plurality of camera modules (eg, a dual camera or a triple camera) each having different properties (eg, angle of view) or functions.
  • a plurality of camera modules eg, camera modules 254
  • the electronic device 101 may be configured based on a user's selection. It can be controlled to change the angle of view of the camera module performed in .
  • the plurality of camera modules may include at least one of a wide-angle camera, a telephoto camera, a color camera, a monochrome camera, or an IR (infrared) camera (eg, a time of flight (TOF) camera, a structured light camera).
  • the IR camera may be operated as at least a part of a sensor module (not shown).
  • the electronic device 101 receives light through one surface (eg, the front surface 101A) of the electronic device 101 placed in a direction toward which the screen 2301 faces, based on the received light. It may further include a camera module (eg, a front camera) that generates an image signal.
  • the camera module 254 is not limited to the embodiment of FIG. 2B or 3B , and is aligned with an opening (eg, a through hole, or a notch) formed in the flexible display 230 and the housing 210 ) can be located inside the The camera module 254 may generate an image signal by receiving light through the opening and a portion of the transparent cover overlapping the opening.
  • the transparent cover serves to protect the flexible display 230 from the outside, and may include, for example, a material such as polyimide or ultra thin glass (UTG).
  • the camera module 254 may be disposed at the bottom of at least a part of the screen 2301 of the flexible display 230 , and the camera module 254 ) is not visually differentiated (or exposed), and a related function (eg, taking an image) can be performed.
  • a related function eg, taking an image
  • the camera module 254 when viewed from the top of the screen 2301 (eg, when viewed in the -z axis direction), the camera module 254 is disposed to overlap at least a portion of the screen 2301 and is not exposed to the outside. It is possible to acquire an image of an external subject while not doing so.
  • the electronic device 101 may further include a key input device (eg, the input module 150 of FIG. 1 ).
  • the key input device may be located, for example, on the first side surface 213a of the electronic device 101 formed by the first side cover 213 .
  • the key input device may include at least one sensor module.
  • the electronic device 101 may include various sensor modules (eg, the sensor module 176 of FIG. 1 ).
  • the sensor module may generate an electrical signal or data value corresponding to an internal operating state of the electronic device 101 or an external environmental state.
  • the sensor module generates a signal regarding the proximity of an external object based on the light received through the front surface 101A of the electronic device 101 placed in the direction the screen 2301 faces. It may include a proximity sensor.
  • the sensor module includes a fingerprint sensor or HRM sensor for detecting biometric information based on light received through the front 101A or rear 101B of the electronic device 101 It may include various biosensors such as
  • the electronic device 101 may include various other sensor modules, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, and a humidity sensor. , and may include at least one of an illuminance sensor.
  • the electronic device 101 extends the screen toward the third edge part 220b when the sliding plate 220 slides out. It can also be implemented as a structure.
  • a portion of the flexible display 230 forming the first curved portion 230b in the closed state of FIG. 2A is a flat portion expanded when it is switched from the closed state of FIG. 2A to the open state of FIG. 3A . It is included in 230a and may be formed in another area of the flexible display 230 .
  • FIG. 4 is an exploded perspective view of the electronic device 101 of FIG. 2A according to an exemplary embodiment.
  • the electronic device 101 includes a back cover 212 , a first side cover 213 , a second side cover 214 , a support member assembly 400 , and a pulley. 460 , sliding plate 220 , flexible display 230 , support sheet 470 , multi-bar structure (or multi-bar assembly) 480 , or printed circuit board 490 (eg, a printed circuit board (PCB), a flexible PCB (FPCB), or a rigid-flex PCB (RFPCB)).
  • PCB printed circuit board
  • FPCB flexible PCB
  • RFPCB rigid-flex PCB
  • the support member assembly (or support structure) 400 is a frame structure capable of withstanding a load, and may contribute to durability or rigidity of the electronic device 101 .
  • At least a portion of the support member assembly 400 may include a non-metallic material (eg, a polymer) or a metallic material.
  • a housing 210 (see FIG. 2A ) including a back cover 212 , a first side cover 213 , or a second side cover 214 , a pulley 460 , a sliding plate 220 , a flexible display ( 230 , the support sheet 470 , the multi-bar structure 480 , or the printed circuit board 490 may be disposed or coupled to the support member assembly 400 .
  • support member assembly 400 includes first support member 410 , second support member 420 , third support member 430 , fourth support member 440 , or fifth support member (450).
  • the first support member (or first bracket) 410 may be, for example, in the form of a plate.
  • the sliding plate 220 may be disposed on one surface 410a of the first support member 410 .
  • the second support member (or second bracket) 420 may be in the form of a plate overlapping at least a portion of the first support member 410 when viewed in the z-axis direction, or the first support member It may be coupled with the 410 and/or the third support member 430 .
  • the second support member 420 may be positioned between the first support member 410 and the third support member 430 .
  • the third support member 430 may be coupled to the first support member 410 and/or the second support member 420 with the second support member 420 interposed therebetween.
  • the printed circuit board 490 may be disposed on the second support member 420 between the first support member 410 and the second support member 420 .
  • the fourth support member 440 may be coupled to one side of an assembly (or structure) (not shown) to which the first support member 410 , the second support member 420 , and the third support member 430 are coupled. have.
  • the fifth support member 450 may be coupled to the other side of an assembly (or structure) (not shown) to which the first support member 410 , the second support member 420 , and the third support member 430 are coupled. and may be positioned opposite to the fourth support member 440 .
  • the first side cover 213 may be coupled to the support member assembly 400 from the side of the fourth support member 440 .
  • the second side cover 214 may be coupled to the support member assembly 400 from the side of the fifth support member 450 .
  • the back cover 212 may be coupled to the support member assembly 400 from the third support member 430 side.
  • At least a portion of the first support member 410 , the second support member 420 , the third support member 430 , the fourth support member 440 , or the fifth support member 450 may be formed of a metallic material and/or a non-metallic material. It may contain substances (eg, polymers). According to various embodiments, at least two or more of the first support member 410 , the second support member 420 , the third support member 430 , the fourth support member 440 , and the fifth support member 450 . may be integrally implemented.
  • support member assembly 400 includes first support member 410 , second support member 420 , third support member 430 , fourth support member 440 , and fifth support member It may refer to a structure forming at least a portion of 450 . According to some embodiments, some of the first support member 410 , the second support member 420 , the third support member 430 , the fourth support member 440 , and the fifth support member 450 are omitted. it might be
  • the first support member 410 is, for example, a first side facing the fourth supporting member 440 (not shown), the fifth supporting member 450 facing the opposite side of the first side the second side 410c, the third side (not shown) connecting one end of the first side and one end of the second side 410c, or the other end of the first side and the other of the second side 410c It may include a fourth side surface 410d that connects the ends and is positioned opposite to the third side surface.
  • the pulley 460 may be located near the third side of the first support member 410 .
  • the pulley 460 may be located near the fourth side surface 410d of the first support member 460 .
  • the pulley 460 may include a cylindrical roller 461 extending in a direction (eg, a +y-axis direction) from the fifth support member 450 to the fourth support member 440 .
  • the pulley 460 may include a first rotation shaft (not shown) and a second rotation shaft 463 connected to the roller 461 , the first rotation shaft and the second rotation shaft 463 are
  • the rollers 461 may be positioned on opposite sides of each other with the rollers 461 interposed therebetween.
  • the first rotation shaft may be positioned between the roller 461 and the first side cover 213 , and may be connected to the fourth support member 440 .
  • the second rotation shaft 463 may be positioned between the roller 461 and the second side cover 214 , and may be connected to the fifth support member 450 .
  • the fourth support member 440 may include a first through hole 441 into which the first rotation shaft is inserted, and the fifth support member 450 has a second through hole into which the second rotation shaft 463 is inserted. (451).
  • the roller 461 may be rotatable based on the first rotation shaft disposed on the fourth support member 440 and the second rotation shaft 463 disposed on the fifth support member 450 .
  • the sliding plate 220 may be disposed on the support member assembly 400 to be able to slide on the first support member 410 .
  • a sliding structure for supporting and guiding coupling between the first support member 410 and the sliding plate 220 and movement of the sliding plate 220 may be provided.
  • the sliding structure may include at least one elastic structure 401 .
  • the at least one resilient structure 401 may include various resilient members such as, for example, a torsion spring.
  • the torsion spring as the resilient structure 401 may include one end connected to the sliding plate 220, the other end connected to the first support member 410, and a spring portion between the one end and the other end.
  • the sliding plate 220 is moved to a distance set in the first direction (eg, +x axis direction) of the slide out by an external force, the position of the one end with respect to the other end is changed so that the sliding plate 220 is no longer
  • the spring part can be moved in the first direction due to the elasticity of the spring part even without an external force, and thus can be switched from the closed state of FIG. 2A to the open state of FIG. 3A .
  • the sliding plate 220 When the sliding plate 220 is moved by an external force to a distance set in a second direction opposite to the first direction (eg, the -x axis direction), the position of the one end with respect to the other end is changed to change the position of the sliding plate 220 ) may be moved in the second direction due to the elasticity of the spring part without any external force, and thus may be converted from the open state of FIG. 3A to the closed state of FIG. 2A .
  • the housing 210 may be defined to further include at least a portion of the support member assembly 400 .
  • the housing 210 may have one surface (eg, one surface 410a formed by the first support member 410 ) facing in the first direction (eg, the +z-axis direction), and the first surface 410a and may include the other surface (eg, the rear surface 101B of FIG. 2B ) directed in the opposite second direction (eg, the -z-axis direction).
  • the display support structure 220 may be slidably slidable in a third direction (eg, the x-axis direction) perpendicular to the first direction. ))).
  • the flexible display 230 may include a first section (1) extending from the bendable section (2).
  • the first section (1 is the sliding plate 220)
  • the first section (the bendable section (2) connected to the 1 slides out of the screen (Refer to the screen 2301 of Fig. 3A) can be expanded
  • the bendable section 2 is the electronic device
  • the screen (refer to the screen 2301 of Fig. 2A) may be reduced while at least partially entering the interior 101.
  • the support member assembly 400 includes an opening (not shown) for entering or withdrawing the bendable section (2). and a pulley 460 may be positioned in the opening, the opening including a gap on one side between the first support member 410 and the third support member 430, and a third adjacent opening A portion 431 of the support member 430 may have a curved shape corresponding to the curved surface of the roller 461.
  • the pulley 460 may be positioned to correspond to the bendable section 2, and the closed state and FIG. In the transition between the open states of 3a, the pulley 460 may be rotated by the movement of the bendable section (2).
  • the support sheet 470 may be attached to the rear surface of the flexible display 230 .
  • the rear surface of the flexible display 230 may refer to a surface positioned opposite to a surface from which light is emitted from a display panel including a plurality of pixels.
  • the support sheet 470 may contribute to durability of the flexible display 230 .
  • the support sheet 470 may reduce the effect of a load or stress on the flexible display 230 that may occur in transition between the closed state of FIG. 2A and the open state of FIG. 3A .
  • the support sheet 470 may prevent the flexible display 230 from being damaged by a force transmitted therefrom when the sliding plate 220 is moved.
  • the flexible display 230 may include a first layer including a plurality of pixels and a second layer coupled to the first layer.
  • the first layer is, for example, an organic light emitting diode (OLED) or a light emitting layer (eg, a display panel) including a plurality of pixels implemented with a light emitting device such as a micro LED (light emitting diode), and others It may include various layers (eg, an optical layer to improve the picture quality of the screen or to improve outdoor visibility, such as a polarizing layer).
  • the optical layer may selectively transmit light generated from a light source of the light emitting layer and vibrating in a predetermined direction.
  • At least one electronic component included in the electronic device 101 and A plurality of pixels may not be disposed in a portion of the flexible display 230 that at least partially overlaps.
  • the flexible display 230 overlaps at least in part with at least one electronic component (eg, a camera module or a sensor module) included in the electronic device 101 .
  • Some regions may include different pixel structures and/or wiring structures compared to other regions.
  • a portion of the flexible display 230 that at least partially overlaps with the at least one electronic component may have a different pixel density than other areas.
  • a portion of the flexible display 230 that at least partially overlaps with the at least one electronic component may not include an opening in a pixel structure and/or a wiring structure. It can be implemented as a substantially transparent area formed by the alteration.
  • the second layer serves to support and protect the first layer (eg, a cushioning member), to block light, to absorb or shield electromagnetic waves, or to diffuse, dissipate, or radiate heat. It may include various layers.
  • the second layer is a conductive member (eg, a metal plate), which can help to reinforce the rigidity of the electronic device 101, shield ambient noise, and heat dissipating components ( It can be used to dissipate heat emitted from (eg display driving circuits).
  • the conductive member is made of at least one of copper (Cu (copper)), aluminum (Al (aluminum)), SUS (stainless steel), or CLAD (eg, a stacked member in which SUS and Al are alternately disposed).
  • Cu copper
  • Al aluminum
  • SUS stainless steel
  • CLAD eg, a stacked member in which SUS and Al are alternately disposed
  • the support sheet 470 may cover at least a part of the second layer of the flexible display 230 and be attached to the rear surface of the second layer.
  • the support sheet 470 may be formed of various metallic materials and/or non-metallic materials (eg, polymers).
  • the support sheet 470 may include stainless steel.
  • the support sheet 470 may include an engineering plastic.
  • the support sheet 470 may be implemented integrally with the flexible display 230 .
  • the support sheet 470 is a portion on which the flexible display 230 is bent (eg, the bendable section of FIG. 3A or 4 (2, the first curved portion 230b of FIG.
  • the lattice structure may include a plurality of openings or a plurality of slits
  • the flexible display 230 may include a plurality of openings or a plurality of slits.
  • the support sheet 470 may include a recess pattern (not shown) including a plurality of recesses, replacing the lattice structure, and , the recess pattern may contribute to the flexibility of the flexible display 230.
  • the lattice structure or the recess pattern may extend to at least a part of the planar portion 230a of FIG. 2A or 3A.
  • the support sheet 470 including a grid structure or a recess pattern or a corresponding conductive member may be formed of a plurality of layers.
  • the multi-bar structure 480 may be connected to the sliding plate 220 , the first surface 481 facing the support sheet 470 , and the first surface 481 opposite to the first surface 481 . a positioned second face 482 .
  • the multi-bar structure 480 may be moved and directed by the roller 461 that rotates in friction with the second surface 482 .
  • the second surface 482 extends in a direction (eg, +y-axis direction) from the second rotational axis 463 of the pulley 460 to the first rotational axis (not shown).
  • (bar) (not shown) may include a plurality of arrangements.
  • the multi-bar structure 480 may be bent at portions having a relatively thin thickness between the plurality of bars.
  • this multi-bar structure 480 may be referred to by other terms such as a 'flexible track' or a 'hinge rail'.
  • the multi-bar structure 480 in the closed state of FIG. 2A or the open state of FIG. 3A , at least a portion of the multi-bar structure 480 is positioned to overlap the screen 2301 (see FIG. 2A or 3A ), and the flexible display (
  • the bendable section 2 can be supported so that the bendable section (2) of the flexible display 230 is smoothly connected to the first section (1) of the flexible display 230 without lifting.
  • the multi-bar structure 480 is shown in FIG. In the transition between the closed state of 2a and the open state of FIG. 3A , the bendable section (2) can contribute movably while maintaining a shape seamlessly connected to the first section (1) without lifting.
  • the support sheet 470 may make elements (eg, the multi-bar structure 380) located inside the electronic device 101 substantially invisible through the flexible display 230 . .
  • a non-smooth screen may be provided due to lifting due to elasticity of the flexible display 230 and/or the support sheet 470 .
  • a tension structure (not shown) for the flexible display 230 and/or the support sheet 470 may be provided. The tension structure can contribute to a smooth slide operation while maintaining the tension.
  • printed circuit board 490 includes a processor (eg, processor 120 of FIG. 1 ), a memory (eg, memory 130 of FIG. 1 ), and/or an interface (eg, processor 120 of FIG. 1 ). interface 177) may be mounted.
  • the processor may include, for example, one or more of a central processing unit, an application processor, a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor.
  • Memory may include, for example, volatile memory or non-volatile memory.
  • the interface may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, and/or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • the interface may, for example, electrically or physically connect the electronic device 101 to an external electronic device, and may include a USB connector, an SD card/MMC connector, or an audio connector.
  • the electronic device 101 may include various other elements disposed on the printed circuit board 490 or electrically connected to the printed circuit board 490 .
  • the electronic device 101 includes a battery (not shown) positioned between the first support member 410 and the second support member 420 , or between the second support member 420 and the back cover 212 .
  • a battery (not shown) is a device for supplying power to at least one component of the electronic device 101, and may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell. have.
  • the battery (not shown) may be integrally disposed inside the electronic device 101 or may be detachably disposed from the electronic device 101 .
  • the electronic device 101 includes an antenna positioned between the first support member 410 and the second support member 420 , or between the second support member 420 and the back cover 212 . not shown) may be included.
  • An antenna may include, for example, a near field communication (NFC) antenna, a wireless charging antenna, and/or a magnetic secure transmission (MST) antenna.
  • An antenna may, for example, perform short-range communication with an external device or wirelessly transmit/receive power required for charging.
  • the antenna structure may be formed by a part of the first side cover 213 and/or the second side cover 214 or a combination thereof.
  • the electronic device 101 may include a flexible printed circuit board (FPCB) 237 that electrically connects the flexible display 230 and the printed circuit board 490 to each other.
  • FPCB flexible printed circuit board
  • the flexible printed circuit board 237 is electrically connected to the printed circuit board 490 through an opening (not shown) formed in the sliding plate 220 and an opening (not shown) formed in the first support member 410 . can be connected
  • FIG. 5 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • the electronic device (eg, the electronic device 101 of FIG. 1 ) according to an embodiment includes a display 510 , a processor 520 (eg, the processor 120 of FIG. 1 ), and a driving device 530 . ), a sensor 540, and a memory 550.
  • the electronic device 101 may further include at least some of the configuration and/or functions of the electronic device 101 of FIG. It may contain overlapping components.
  • the electronic device 101 of FIG. 5 is a flexible electronic device implemented such that the active area (or display area) on which visual information is to be displayed is variable in a sliding method or a roller method (eg, as shown in FIGS. 2A, 2B, 3A, 3B and 4 ). electronic device 101).
  • the electronic device 101 provides a virtual three-dimensional (3D) space that means a function of applying an avatar to virtual reality, augmented reality, or mixed reality, a function of analyzing a spatial element in an image, and an avatar activity radius. It is possible to support at least one of a function of deriving .
  • the functions may be provided through an avatar application, a virtual reality application, an augmented reality application, or a mixed reality application. Alternatively, the functions may be provided as one of functions (eg, app in app) provided by the camera application.
  • the display 510 may include a first display area A1 exposed to the outside and a second display area A2 drawn in or drawn out according to the state of the electronic device 101 .
  • an active area in which visual information (eg, an execution screen) is displayed on the display 510 may be determined based on the state of the electronic device 101 . For example, when the electronic device 101 is in a first state (eg, a closed state) in which the second display area A2 is introduced, the active area is determined as the first display area A1 and the first display area A2 is displayed. Visual information may be displayed in the area A1 .
  • a first state eg, a closed state
  • Visual information may be displayed in the area A1 .
  • the active area is the entire area of the display 510 (eg, the first The display area A1 and the second display area A1) are determined, and visual information may be displayed in the entire area.
  • the area of the second display area A2 exposed to the outside of the electronic device 101 may vary according to a user input or the number of times the input is accumulated.
  • the display 510 may be implemented such that the second display area A2 is exposed in stages.
  • the driving device 530 may be configured to control at least a portion of the display 510 to be drawn into or withdrawn from the inner space of the housing of the electronic device 101 .
  • the driving device 530 may be implemented as a rotation assembly or a sliding motor, but is not limited thereto.
  • the electronic device 101 may control the driving device 530 by an external force (eg, a squeeze gesture to press the electronic device 101 ). Due to the resilient structure of the driving device 530 , the electronic device 101 may be switched from the closed state to the open state or from the open state to the closed state (eg, semi-automatic slide operation) without any external force.
  • an external force eg, a squeeze gesture to press the electronic device 101 . Due to the resilient structure of the driving device 530 , the electronic device 101 may be switched from the closed state to the open state or from the open state to the closed state (eg, semi-automatic slide operation) without any external force.
  • the electronic device 101 when a signal generated through an input device (eg, a hardware button or a software button provided through a screen) is detected, the electronic device 101 operates the driving device 530 to change from a closed state to an open state. , or can be switched from an open state to a closed state.
  • an input device eg, a hardware button or a software button provided through a screen
  • the sensor 540 may generate data used to recognize a state (eg, a first state and a second state) of the electronic device 101 .
  • the sensor 540 may include a sensor (eg, an encoder, a hall sensor) that is attached to the driving device 530 to generate and output data corresponding to the rotation angle of the driving device 530 .
  • the sensor 540 is disposed on a designated part of the display 510 (eg, a part of the second display area A2) to generate data corresponding to the curvature of the bendable section (2).
  • the memory 550 may store data related to the avatar service.
  • the memory 550 provides the first avatar content through a portion (eg, the first display area A1 ) of the display 510 set as the active area, and the electronic device 101 receives the first avatar content from the portion of the display 510 .
  • Instructions for causing the processor 510 to perform a function of converting the first avatar content into the second avatar content and providing the first avatar content based on the extension to another extended portion (eg, the second display area A2) can be saved.
  • the processor 550 may be operatively connected to the display 510 , the driving device 530 , the sensor 540 , and the memory 550 .
  • the processor 520 may recognize a change in the state of the electronic device 101 based on data received from the sensor 540 or the driving device 530 , and may react in real time to determine the activation region. As an example of the real-time response, the processor 510 may track the area of the active region. The processor 520 may recognize the portion exposed to the outside of the second display area A2 and extend the active area from the first display area A1 to the exposed portion of the second display area A2 .
  • the processor 520 may include an image management module 521 , a spatial analysis module 523 , and an avatar content management module 525 .
  • the modules may be configured as hardware modules of the processor 520 (eg, an application processor or an image processing processor). At least one of the modules 521 , 523 , and 525 may be configured in the electronic device as hardware different from the processor.
  • the modules 521 , 523 , and 525 may be implemented as software (eg, the program 140 ), and the processor 210 may execute operations based on instructions implemented in the software.
  • the image management module 521 acquires a virtual reality, augmented reality, or mixed reality background image (or background image) related to an avatar (eg, augmented reality (AR) avatar), and the display 510 and the driving device 530 .
  • the active area information may be obtained from the sensor 540 and the area of the active area may be tracked.
  • the image management module 521 responds in real time to an active area that is changed according to a change in the state of the electronic device 101 , and in the background image, a cutoff or cropping area that matches the area of the active area of the current display 510 . (or a view area) may be determined.
  • the background image may be a virtual reality space image (eg, 360 degree virtual reality space) or a real image obtained from a camera, but is not limited thereto.
  • the spatial analysis module 523 may recognize spatial elements (eg, a floor, a wall, a ceiling, and an object) within the cropping area, and analyze parameters (eg, size, area, height, and distance) of each spatial element.
  • the spatial analysis module 523 may derive a virtual 3D space (eg, avatar activity region) in which the avatar is to be located in a part of the background image (eg, the cropping region) based on the spatial element of the cropping region.
  • the spatial analysis module 523 may determine x, y, and z-axis values for the virtual 3D space based on the floor area in the cropping area.
  • the avatar content management module 525 may configure an avatar service user interface (UI) that selects avatar contents that can be expressed in the 3D space based on the size of the 3D space and provide it to the display 510 .
  • the avatar content management module 525 may provide a UI environment for supporting an avatar-related function to the active area of the display 510 determined according to the state of the electronic device 101 .
  • the avatar content management module 525 stores characteristic information (eg, avatar leg, arm, body and face size, avatar motion, avatar animation activity, avatar posture) of the avatar (eg, default avatar or avatar designated by the user). Based on the avatar, it is possible to position the avatar in the virtual 3D space and select avatar contents that can be expressed in the virtual 3D space. For example, the avatar content management module 525 places the avatar at a specific location (eg, the center) of the virtual 3D space, and moves the avatar's legs and arms out of the virtual 3D space during avatar motion, posture, or animation activity. You can select avatar contents that do not deviate.
  • characteristic information eg, avatar leg, arm, body and face size, avatar motion, avatar animation activity, avatar posture
  • the avatar content management module 525 changes the virtual 3D space in real time in response to an activation area that is changed according to a change in the state of the electronic device 101 , and selects avatar contents in real time in response thereto, and selects the selected avatar contents
  • the avatar service UI may be configured by the users and provided to the display 510 .
  • the avatar content management module 525 responds in real time to the expanded active area according to a change in the state of the electronic device 101 to provide extended service functions (eg, a main avatar additional display function, avatar interaction function, duplication function) suitable for the expanded active area. function) can be provided.
  • extended service functions eg, a main avatar additional display function, avatar interaction function, duplication function
  • the flexible electronic device may move in a first direction or a second direction with respect to the first housing and the first housing.
  • a second housing disposed to be movable, a driving device driven to move the second housing with respect to the first housing (eg, the driving device 530 of FIG. 5 ), the second housing being the first housing
  • the driving device eg, the display module 160 of FIG. 1 , the display 510 of FIG.
  • a processor operatively connected to the display and the driving device (eg, the processor 120 of FIG. 1 ), the processor of FIG. 5 (520)), wherein, when the avatar service is executed, when the active region in which visual information is to be displayed on the display is the first display region, the processor is configured to select a spatial element in the background image corresponding to the first display region.
  • a virtual second space is derived by analyzing a space element from the background images corresponding to the first and second display areas, and based on the characteristic information of the avatar It may be configured to provide at least one of an avatar of a second posture that can be expressed in the second space and an extended service function.
  • the flexible electronic device may move in a first direction or a second direction with respect to the first housing and the first housing.
  • a second housing disposed to be movable, a driving device driven to move the second housing with respect to the first housing (eg, the driving device 530 of FIG. 5 ), the second housing being the first housing
  • the driving device eg, the display module 160 of FIG. 1 , the display 510 of FIG.
  • the processors 120 and 520 acquire a background image to be displayed when an avatar service is executed, and track an area of an active area in which visual information is to be displayed on the display based on the state of the electronic device, , determine a cropping region from the obtained background image corresponding to the area of the active region, analyze spatial elements included in the determined cropping region to derive a virtual spatial range to express the avatar, and characteristics of the avatar
  • the avatar service UI may be generated by selecting avatar contents that can be expressed within the spatial range based on the information, and the generated avatar service UI may be set to be provided as a background image in the cropping area.
  • the processors 120 and 520 acquire a background image, and the first space determines a first cropping area to have a size corresponding to a first display area in the background image, and a spatial element in the betting area is analyzed and derived, and the second space is determined to have a size corresponding to the first display area and the second display area in the background image, and a second cropping area is determined within the second cropping area. It may be further set to derive by analyzing spatial elements.
  • the background image may include a real image acquired through a camera or a rendered virtual reality space image.
  • the space element includes at least one of a floor, a wall, a ceiling, and an object
  • the processor analyzes at least one of a size, an area, a height, and a distance of the space element to locate the avatar in the background image. It may be set to calculate a floor area to be used, and to determine x-axis, y-axis, and z-axis values of the first space or the second space based on the floor area.
  • the avatar characteristic information may include information on at least one of avatar leg, arm, body and face sizes, avatar motion, avatar animation activity, and avatar posture.
  • the processor 120 or 520 selects avatar contents that can be expressed in the first space based on the active area being the first display area, configures a first avatar service user interface, and configures the first avatar service user interface.
  • the second avatar service user interface may be configured by selecting contents, and the second avatar service user interface may be further configured to provide the avatar of the second posture.
  • the processor 120 or 520 may be further configured to additionally provide an extended service function corresponding to the extended active area of the second avatar service user interface.
  • the extended service function provides another avatar display function that can additionally display other avatars in addition to the main avatar, a clone function that can provide a duplicate clone of the main avatar, and additional functions through interaction with the avatar.
  • a clone function that can provide a duplicate clone of the main avatar, and additional functions through interaction with the avatar.
  • At least one of executable avatar interaction functions may be included.
  • the first avatar service user interface includes motion items expressible in the first space
  • the second avatar service user interface includes motion items expressible in the second space
  • the processor 120 or 520 visually differentiates the motion items that cannot be expressed in the first space from the motion items that cannot be expressed in the first space. It can be further set to process.
  • the processors 120 and 520 when motion items that cannot be expressed in the first space are included in the first avatar service user interface in the first avatar service user interface, the processors 120 and 520 provide information or the display to guide that some of the motion items cannot be expressed. may be further set to provide information guiding to extend from the first display area to at least a part of the second display area.
  • FIG. 6 illustrates a method of operating an avatar of a flexible electronic device according to various embodiments of the present disclosure.
  • the processor eg, the processor 120 of FIG. 1 and the processor 520 of FIG. 5 ) of the electronic device 101 according to an embodiment is installed in the electronic device 101 in operation 610 .
  • a service execution request related to the avatar may be detected.
  • an avatar application eg, an avatar animation app, an augmented reality app, or a virtual reality app
  • an execution process of the avatar-related application may be started.
  • the avatar animation app may be understood as an application supporting functions related to an avatar character, emoji/animation sticker, and avatar.
  • the processor 520 may acquire a background image to be displayed on the avatar app screen.
  • the background image may be an image corresponding to a content type, a real image using a camera, or a virtual reality background image rendered from the server or the electronic device 1001 .
  • the processor may activate a camera and obtain a preview image obtained from the camera as a background image.
  • the processor may render the virtual reality space content and obtain the rendered virtual reality space image as the background image.
  • the processor 520 may track the area of the active region of the display based on the state of the electronic device.
  • the active area on which visual information is to be displayed is a first display area A1 , a first display area A1 , and a second display area according to the state of the electronic device. It may be determined as a part of (A2) or the entire display area (eg, the first display area A1 and the second display area A2).
  • the processor 520 may recognize the state of the electronic device by using data received from the display, the driving device, or the sensor, and may track the area of the activation region determined based on the state of the electronic device 101 . For example, the processor 520 tracks the area including the first display area and the second display area according to the area of the first display area A1 and the extent to which the second display area A2 is expanded in the display. can do.
  • the processor 520 may determine a cropping area (or CROP area) of the background image corresponding to the tracked area of the active area.
  • the cropping area may be part of the background image.
  • the cropping area may be a view area corresponding to the size of the active area in which visual information is to be displayed in the entire background image.
  • the processor 520 may derive a virtual 3D space to represent the avatar by analyzing the spatial element in the cropping area.
  • the virtual 3D space is an arbitrary space for positioning or arranging the avatar on the display, and may not be expressed on the display as a visual element, but is not limited thereto, and may be expressed as a visual element according to a user's request.
  • the processor 520 recognizes a spatial element (eg, a floor, a wall, a ceiling, an object) within the cropping area, and sets parameter values (eg, size, area, height, distance) of each spatial element. can be analyzed. For example, the processor 520 may determine x, y, and z-axis values for the virtual 3D space based on the area of the floor in the cropping region.
  • a spatial element eg, a floor, a wall, a ceiling, an object
  • parameter values eg, size, area, height, distance
  • the processor 520 selects avatar content that can be expressed in the 3D space based on the avatar characteristic information.
  • the processor 520 is configured to generate a default avatar or attribute information (eg, size of avatar legs, arms, body and face, avatar motion, avatar animation activity, avatar posture) of the default avatar or atava specified by the user. , it is possible to position the avatar in the virtual 3D space of the cropping area, and select avatar contents that can be expressed in the derived virtual 3D space.
  • the avatar contents may include at least one of a motion, an action, an animation action, or a function of Atava.
  • the processor 520 may generate an avatar service UI corresponding to the current display size based on the selected avatar contents, and display the generated avatar service UI on an active area of the display.
  • the processor 520 may display a background image of the cut-out area on the display, and display the avatar content of the first posture selected according to the virtual 3D space derived from the cut-out area.
  • the processor 520 may display randomly or prioritized contents among avatar contents selected according to the virtual 3D space.
  • FIG. 7 illustrates a method of operating an avatar in a flexible electronic device according to an exemplary embodiment.
  • the processor eg, the processor 120 of FIG. 1 and the processor 520 of FIG. 5 ) of the electronic device 101 according to an embodiment is installed in the electronic device 101 in operation 710 .
  • a service execution request related to the avatar may be detected.
  • the processor 520 may acquire a background image to be displayed on the avatar app screen.
  • the background image may be an image corresponding to a content type, a real image using a camera, or a virtual reality background image rendered from a server or an electronic device.
  • the processor 520 may track the area of the active area of the display based on the state of the electronic device.
  • the processor 520 may recognize the state of the electronic device by using data received from the display, the driving device, or the sensor, and may track the area of the activation region determined based on the state of the electronic device 101 .
  • the processor 520 may derive a first virtual 3D space by analyzing a spatial element in the background image corresponding to the tracked area of the active area (eg, the first active area).
  • the virtual 3D space is an arbitrary space for positioning or arranging the avatar on the display, and may not be expressed on the display as a visual element, but is not limited thereto, and may be expressed as a visual element according to a user's request.
  • the processor 520 may recognize a spatial element (eg, a floor, a wall, a ceiling, an object) and analyze parameter values (eg, a size, an area, a height, and a distance) of each spatial element. For example, the processor 520 may determine x, y, and z-axis values for the virtual 3D space based on the area of the floor in the cropping region.
  • a spatial element eg, a floor, a wall, a ceiling, an object
  • parameter values eg, a size, an area, a height, and a distance
  • the processor 520 may respond in real time to provide a background image suitable for the size of the first active area to the display.
  • the processor 520 may obtain or render a background image suitable for the size of the first active region and provide it to the display.
  • the processor 520 determines a cropping area that fits the area of the tracked first active area based on the acquired background image, and analyzes a spatial element in the cropping area to create a virtual first 3D space. can be derived
  • the processor 520 selects avatar content to be displayed in the first 3D space based on the avatar characteristic information and provides the first avatar service UI corresponding to the first active area.
  • the first avatar service UI may include an avatar of a first posture expressed in the first 3D space.
  • the processor 520 is configured to enter the first 3D space based on the default avatar or attribute information of the atava designated by the user (eg, size of the avatar legs, arms, body and face, avatar motion, avatar animation activity, and avatar posture).
  • the avatar may be positioned, and avatar contents that can be expressed in the first 3D space may be selected.
  • the avatar contents may include at least one of a motion, an action, an animation action, or a function of Atava.
  • the processor 520 may generate an avatar service UI based on the selected avatar contents.
  • the processor 520 may detect a change in the area of the active region.
  • the processor 520 tracks the changed area of the second active area based on the change in the active area.
  • the processor 520 may determine an active area in real time in response to the change of the electronic device 101 from the first state to the second state and track the area of the active area in real time.
  • the processor 520 may detect that the electronic device 101 is changed from the closed state to the open state or from the open state to the closed state, and may determine the activation area in response to the degree of expansion or reduction.
  • the processor 520 may derive a virtual second 3D space by analyzing a spatial element in the background image corresponding to the changed area of the second active region.
  • the processor 520 may recognize a spatial element (eg, a floor, a wall, a ceiling, an object) and analyze parameter values (eg, a size, an area, a height, and a distance) of each spatial element. For example, the processor 520 may determine x, y, and z-axis values for the virtual 3D space based on the area of the floor in the cropping region.
  • a spatial element eg, a floor, a wall, a ceiling, an object
  • parameter values eg, a size, an area, a height, and a distance
  • the processor 520 may respond in real time to provide a background image that matches the size of the changed second active region on the display.
  • the processor 520 may obtain or render a background image suitable for the size of the second active area and provide it to the display.
  • the processor 520 may derive a virtual second 3D space by determining a cropping region that matches the changed area of the second active region and analyzing a spatial element in the cropping region.
  • the processor 520 may generate a second avatar service UI corresponding to the second activation area by selecting avatar content and extended service functions to be expressed in the second 3D space based on the avatar characteristic information.
  • the second avatar service UI may include the avatar of the second posture expressed in the second 3D space.
  • the processor 520 responds in real time to the second avatar based on the default avatar or characteristic information of the atava specified by the user (eg, sizes of avatar legs, arms, body and face, avatar motion, avatar animation activity, avatar posture).
  • the avatar may be positioned in the 3D space, and avatar contents that can be expressed in the second 3D space may be selected.
  • the processor 520 may provide an extended service function suitable for the second active area based on a change from the first active area to the second active area.
  • the extended service function includes a different avatar display function that can additionally display other avatars in addition to the main avatar, a clone function that can provide a clone clone of Atava, and an avatar interaction function that can perform additional functions through mutual interaction with the avatar It may include at least one of, but is not limited thereto.
  • the processor 520 may convert the first avatar service UI into a second avatar service UI in response to the change of the electronic device 101 from the first state to the second state, and output the converted first avatar service UI to the display.
  • FIG. 8 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • the electronic device 101 varies an activation region in which visual information is to be displayed based on a state (eg, a first state or a second state) of the electronic device 101 and activates the
  • the avatar service may be variably provided according to the size of the area.
  • the processor (eg, the processor 120 of FIG. 1 and the processor 520 of FIG. 5 ) is configured based on the fact that the electronic device 101 is in a closed state (eg, the first state).
  • the first display area A1 of the display 810 is determined as the active area, and the avatar 820 in the first posture is provided through the display 810 of the first display area Al.
  • the processor of the electronic device 101 performs a virtual first 3D space 840 from a background image (eg, a virtual image or a part of a camera preview image) 830 corresponding to the size of the first display area A1 . ) and provide the avatar 820 of the first posture that can be expressed without leaving the first 3D space 840 .
  • the avatar 820 of the first posture is expressed as a posture that can be expressed within the activity range of the first 3D space, but is not limited thereto.
  • the first posture may be a posture in which the legs and arms of the avatar do not deviate outside the activation area (the first display area A1).
  • the active area is the display area of the display 810 in the first display area A1. It may extend to the entire area (the first display area A1 and the second display area A2).
  • the processor of the electronic device 101 may display a first display area A1 and a second display area A2 expressible in the first display area A1 and the second display area A2.
  • the avatar 825 in the two postures may be changed and provided through the display of the first display area A1 and the second display area A2 .
  • the processor of the electronic device 101 changes the background image (eg, a virtual image or a part of the camera preview image) 835 corresponding to the sizes of the first display area A1 and the second display area A2. ) may be derived from the second virtual 3D space 845 , and converted into the avatar 820 of the second posture that can be expressed without leaving the second 3D space 845 and provided.
  • the background image eg, a virtual image or a part of the camera preview image
  • FIG. 9 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • a processor eg, the processor 120 of FIG. 1 and the processor 520 of FIG. 5 ) of the electronic device 101 according to an embodiment may support a virtual reality service.
  • the processor of the electronic device 101 may render the virtual reality content 910 as shown in ⁇ 9001>.
  • the virtual reality content 910 may be implemented as a 360-degree image.
  • a 366-degree image may be produced through a 360-degree panoramic photographing technique or a stitching editing technique, but is not limited thereto.
  • the processor may cut the space of the virtual reality content 910 illustrated in ⁇ 9001> into a section view corresponding to the first active area 915 .
  • the processor may derive a three-dimensional first virtual space 933 in which an avatar is expressed in the first fragment image 930 cut into a section view.
  • the first virtual space 933 may have first x, y, and z axis values.
  • the processor may display the avatar 940 in the first posture as shown in ⁇ 9003> by selecting avatar content expressed within the range of the first virtual space 933 of the first piece image 930 .
  • the processor may detect that the active area is changed from the first active area 915 to the second active area 917 based on the change from the closed state to the open state of the electronic device 101 .
  • the space of the virtual reality content 910 is cut to a size corresponding to the second activation area 917, and a three-dimensional second A virtual space 935 may be derived.
  • the second virtual space 935 may have x', y', and z' axis values.
  • the processor may display the avatar 945 of the second posture by selecting avatar content expressed within the range of the second virtual space 935 of the second piece image 931 .
  • FIG. 10 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • the processor may acquire a real image by executing a camera when the augmented reality service or the mixed reality service is executed.
  • the real image shown in ⁇ 10001> may be in a range or size obtainable by the angle of view of the camera image sensor.
  • the processor may cut the real image 1010 illustrated in ⁇ 10002> into a section view corresponding to the first active area 1015 .
  • the processor may derive a three-dimensional first virtual space 1030 for expressing the avatar within the first fragment image 1020 cut to a size corresponding to the first activation region 1015 .
  • the first virtual space 1030 may have first x, y, and z axis values.
  • the processor may display the avatar 1040 in the first posture as shown in ⁇ 10004> by selecting avatar content expressed within the range of the first virtual space 1030 of the first piece image 1020. .
  • the processor may detect that the active area is changed from the first active area 1015 to the second active area 1017 based on the change from the closed state to the open state of the electronic device 101 .
  • a three-dimensional second virtual space 1035 for expressing an avatar is created from a second sculptural image 1025 cut to a size corresponding to the second active region 1017 from the real image 1010.
  • the second virtual space 1035 may have x', y', and z' axis values.
  • the processor may display the avatar 1045 in the second posture by selecting avatar content expressed within the range of the second virtual space 1035 of the second piece image 1025 .
  • FIG. 11 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • the processor of the electronic device 101 (eg, the processor 120 of FIG. 1 and the processor 520 of FIG. 5 ) according to an embodiment is based on the fact that the electronic device 101 is in a closed state, As shown in ⁇ 110001>, the avatar 1120 in the first posture may be provided through the first avatar service UI 1110.
  • the first avatar service UI screen 1110 is adjusted to the size of the first active area. It may be composed of correspondingly selected avatar contents.
  • the first avatar service UI screen 1110 may include an avatar 1120 in a first posture, an avatar addition item 1130 , and avatar list items 1140 and 1141 .
  • the avatar 1120 in the first posture may be avatar content selected according to the size of the first activation area.
  • the processor may enter a menu in which an avatar can be newly added.
  • An avatar selected from among the avatar list items 1140 and 1141 may be designated as a main avatar.
  • the processor When the user selects (eg, touches) the main avatar, for example, the avatar 1120 in the first posture in the first state, the processor generates the motion UI 1150 composed of avatar contents expressible in the size of the first activation area. ) can be provided.
  • the motion UI 1150 may be composed of motion items 1151 expressible in the size of the first active area in response to the electronic device 101 being in a closed state. not.
  • the processor may display (eg, display a dashed line) visually different from the expressible motion items 1151 .
  • the processor provides information or a display guiding that some of the motion items 1151 cannot be expressed in the first display area. 2 Information guiding to extend to at least a part of the display area may be provided.
  • the processor responds in real time to the change of the electronic device 101 from the closed state to the open state, and as shown in ⁇ 11002>, switches to the second avatar service UI screen 1115 to display the avatar 1125 in the second posture. ) can be provided.
  • the second avatar service UI screen 1115 may be configured with avatar contents selected according to the changed size of the active area.
  • the second avatar service UI screen 1115 may be switched from the avatar 1120 in the first posture to the avatar 1125 in the second posture, and a background image (or the changed size of the active area) corresponds to the changed size of the active area. It can be converted into a fragment image cut by .
  • the avatar addition item 1130 and the avatar list items 1140 and 1141 may be the same as the first avatar service UI screen 1110 .
  • the processor When the user selects (eg, touches) the avatar 1125 in the second posture on the second avatar service UI screen 1115 , the processor performs a motion UI 1150 composed of avatar contents that can be expressed in the changed size of the active area.
  • the motion UI 1150 in response to the electronic device 101 being in an open state, the motion UI 1150 may be configured such that motion items 1152 that cannot be expressed in the closed state are activated in an expressible state.
  • the user may select (eg, touch) the expressible motion item 1152 in an open state to variously express the avatar in the changed active area.
  • FIG. 12 illustrates an example of an avatar operation screen of a flexible electronic device according to an embodiment.
  • the processor eg, the processor 120 of FIG. 1 and the processor 520 of FIG. 5 ) of the electronic device 101 according to an exemplary embodiment causes the electronic device 101 to change from a first state to a second state.
  • a different avatar display function may be provided based on the conversion to .
  • the processor Based on the fact that the electronic device 101 is in the closed state, as shown in ⁇ 12001>, the processor performs a first avatar service UI screen 1210 including the avatar 1220 in the first posture through the first activation area. can provide
  • the processor responds in real time to the change of the electronic device 101 from the closed state to the open state, and as shown in ⁇ 12002>, switches to the second avatar service UI screen 1215 to display the avatar 1225 in the second posture. ) and the second avatar service UI screen 1215 may be provided on the display of the second activation area.
  • Another avatar addition display UI 1230 may include guide information, an avatar list, an additional cancellation item, and an additional approval item.
  • the processor may provide another avatar 1240 on the second avatar service UI screen 1215 .
  • the processor may additionally provide a clone avatar that duplicates the avatar (eg, the main avatar) displayed on the display in real time in response to the change of the electronic device 101 from the closed state to the open state.
  • the number of clone avatars may vary according to the changed size (or the extent to which the activation region is expanded).
  • FIG. 13 and 14 illustrate examples of an avatar operation screen of a flexible electronic device according to an embodiment.
  • the processor (eg, the processor 120 of FIG. 1 and the processor 520 of FIG. 5 ) of the electronic device 101 is the electronic device 101 in a first state.
  • An avatar interaction function may be provided based on the transition to the second state.
  • the display may determine the first display area A1 as the active area. Based on the fact that the electronic device 101 is in the closed state, the processor performs a first avatar service UI screen including the avatar 1320 in the first posture through the first display area A1 as shown in ⁇ 13001>. (1310) can be provided
  • the processor may respond in real time to a change in the electronic device 101 from the closed state to the up-rolled open state, so that the display may determine the first display area A1 and the second display area A2 as active areas. .
  • the display may determine the first display area A1 and the second display area A2 as active areas.
  • the electronic device 101 changes from an open state to a closed state, it switches to the second avatar service UI screen 1315 to display the avatar 1325 in the second posture. It may be provided through the first display area A1 and the second display area A2 .
  • the processor may provide an avatar-related extended service function, for example, the avatar user interaction function item 1330, as the area of the active region in which the visual information is to be displayed expands.
  • the processor may execute a function specified in the avatar user interaction function item 1330 .
  • a first avatar service UI screen 1410 including the avatar 1410 in the first posture may be provided.
  • the processor responds in real time to the change in the electronic device 101 from the closed state to the side rolled open state, and switches to the second avatar service UI screen 1415 to display the avatar 1425 in the second posture and the wardrobe interaction item. 1430 and a makeup interaction item 1440 may be provided.
  • the processor executes the avatar wardrobe function to enter a menu for changing the avatar's clothes. can do.
  • the processor executes the avatar makeup function to enter a menu for changing the avatar's face. can do.
  • the second housing is moved in a first direction with respect to the first housing a display having a first display area and extending to the first display area and the second display area when the second housing is moved in a second direction from the first housing (eg, the display module 160 of FIG. 1 ; Receiving a request for executing an avatar service through the display 510 of FIG.
  • An operation of deriving a virtual first space in which to express the avatar by analyzing a spatial element in the background image corresponding to the display area, and an avatar of a first posture that can be expressed in the first space based on the characteristic information of the avatar in the first space Based on an operation of displaying in an active area that is a display area, and the active area of the display extends from the first display area to at least a part of the second display area, the space in the background image corresponding to the first and second display areas
  • At least one of an avatar of a second posture that can be expressed in the second space and an extended service function based on an operation of deriving a virtual second space by analyzing elements and characteristic information of the avatar in the first display area and the second space 2 may include a method including displaying on an active area corresponding to the display area.
  • the deriving of the first space may include determining a first cropping area with a size corresponding to the first display area in the background image, and analyzing a spatial element in the first cropping area to derive the first space.
  • deriving the second space may include determining a second cropping area to have sizes corresponding to the first display area and the second display area in the background image, and analyzing a spatial element in the second cropping area.
  • the background image may include a real image acquired through a camera or a rendered virtual reality space image.
  • the spatial element includes at least one of a floor, a wall, a ceiling, and an object
  • the operation of deriving the first space or the second space may include at least one of a size area, a height, and a distance of the space element.
  • the method may further include calculating the floor area where the avatar will be located in the background image by analyzing have.
  • the avatar characteristic information may include information on at least one of avatar leg, arm, body and face sizes, avatar motion, avatar animation activity, and avatar posture.
  • the operation of configuring a first avatar service user interface by selecting avatar contents that can be expressed in the first space based on the active area of the display being the first display area, and the active area of the display being The method may further include configuring a second avatar service user interface by selecting avatar contents that can be expressed in the second space based on an extension of the first display area to at least a part of the second display area.
  • the second avatar service user interface further includes an extended service function corresponding to the extended active area, wherein the extended service function includes another avatar display function capable of additionally displaying an avatar other than the main avatar. , a clone function capable of providing a clone clone of Atava, and an avatar interaction function capable of executing an additional function through mutual interaction with the avatar.
  • the first avatar service user interface includes motion items expressible in the first space
  • the second avatar service user interface includes motion items expressible in the second space
  • the motion items that cannot be expressed in the first space are visually displayed differently from the motion items that cannot be expressed in the first space. can be configured to do so.
  • the configuring of the first avatar service user interface may include, when motion items that cannot be expressed in the first space are included in the first avatar service user interface, information for guiding that some of the motion items cannot be expressed or Information for guiding the display to extend from the first display area to at least a part of the second display area may be further included.
  • module may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예에 따르면 전자 장치는, 구동 장치에 의해 제1 하우징에 대하여 제2 하우징이 제1 방향 또는 제2 방향으로 이동이 가능하며, 제2 하우징이 제1 하우징에 대해 제1 방향으로 이동 시 제1 표시 영역을 가지며, 구동 장치에 의해 제2 하우징이 제1 하우징으로부터 제2 방향으로 이동 시 제1 표시 영역 및 제2 표시 영역으로 확장되는 디스플레이; 및 디스플레이 및 구동 장치와 작동적으로 연결되는 프로세서를 포함하고, 프로세서는 디스플레이의 확장 정보에 따라 아바타의 행동 범위를 변경하여 변경된 행동 범위에 대응하거나 확장된 아바타 컨텐츠들로 전환함으로써 상황에 따라 적응적으로 아바타 서비스를 사용자에게 제공하도록 설정될 수 있다.

Description

플랙서블 전자 장치 및 이의 아바타 서비스 운용 방법
다양한 실시예들은 확장이 가능한 디스플레이를 포함하는 플랙서블 전자 장치 및 이의 아바타 운용 방법에 관한 것이다.
전자 장치는 아바타(avatar) 촬영 또는 아바타에 얼굴 표정, 동작 또는 텍스트를 적용하여 사용자가 자신의 감정을 간접적으로 표현하도록 하는 아바타 서비스를 사용자에게 제공할 수 있다. 예를 들어, 아바타는 가상 현실 또는 증강 현실 플랫폼, 또는 온라인 게임 서비스에서 활용되고 있다.
한편, 전자 장치는 더 새롭고 다양한 기능을 원하는 사용자의 니즈(needs)에 부합하기 위하여, 디스플레이를 확장하거나, 디스플레이의 활용도를 개선시키기 위한 구조로 진화되고 있다. 최근 슬라이딩 방식 또는 롤러 방식으로 디스플레이를 확장시킬 수 있는 플랙서블 전자 장치가 출시되고 있다.
플랙서블 전자 장치는 제1 하우징 및 제2 하우징에 의해 형성된 공간 내에 플랙서블 디스플레이를 배치하며, 플랙서블 디스플레이가 제1 하우징 및 제2 하우징 상호 간의 슬라이딩 운동에 의해 확장되거나 축소될 수 있다. 이로 인해, 플랙서블 전자 장치의 디스플레이는 시각적 정보가 표시될 표시 영역이 축소되거나 확장될 수 있다.
디스플레이 크기가 제한적인 또는 고정(fix)된 전자 장치는 아바타를 표현할 수 있는 범위가 한정적이므로, 행동 범위가 좁은 모션(motion) 또는 애니메이션 활동(animation activity)으로 서비스를 제공해야 하는 한계가 존재할 수 있다.
예를 들어, 플랙서블 전자 장치는 시각적 정보가 표시되는 활성화 영역이 확장됨에 따라 아바타로 표현할 수 있는 행동 범위가 확장되므로 이에 맞는 아바타 서비스를 지원하는 방안이 필요할 수 있다.
다양한 실시예에서 전자 장치는 물리적으로 디스플레이가 확장됨에 따라 아바타를 표현할 수 있는 행동 범위를 증가시키고, 증가된 행동 범위 내에서 표현 가능한 확장된 아바타 컨텐츠를 제공할 수 있다.
다양한 실시예에 따르면 플랙서블 전자 장치는, 제1 하우징, 상기 제1 하우징에 대하여 제1 방향 또는 제2 방향으로 이동이 가능하도록 배치되는 제2 하우징, 상기 제2 하우징을 상기 제1 하우징에 대하여 이동시키도록 구동되는 구동 장치, 상기 제2 하우징이 상기 제1 하우징에 대해 제1 방향으로 이동 시 제1 표시 영역을 가지며, 상기 구동 장치에 의해 상기 제2 하우징이 상기 제1 하우징으로부터 제2 방향으로 이동 시 상기 제1 표시 영역 및 제2 표시 영역으로 확장되는 디스플레이 및 상기 디스플레이 및 상기 구동 장치와 작동적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 아바타 서비스 실행 시에, 상기 디스플레이에서 시각적 정보가 표시될 활성화 영역이 상기 제1 표시 영역인 경우, 상기 제1 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 아바타를 표현할 가상의 제1 공간을 도출하고, 아바타의 특성 정보를 기반으로 상기 제1 공간 내에서 표현 가능한 제1 자세의 아바타를 제공하고, 상기 디스플레이의 활성화 영역이 제1 표시 영역에서 제2 표시 영역의 적어도 일부까지 확장된 것에 기반하여, 상기 제1 및 제2 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 가상의 제2 공간을 도출하고, 상기 아바타의 특성 정보를 기반으로 상기 제2 공간 내에서 표현 가능한 제2 자세의 아바타 및 확장 서비스 기능 중 적어도 하나를 제공하도록 설정될 수 있다.
다양한 실시예에 따르면 플랙서블 전자 장치는, 제1 하우징, 상기 제1 하우징에 대하여 제1 방향 또는 제2 방향으로 이동이 가능하도록 배치되는 제2 하우징, 상기 제2하우징을 상기 제1 하우징에 대하여 이동시키도록 구동되는 구동 장치, 상기 제2 하우징이 상기 제1 하우징에 대해 제1 방향으로 이동 시 제1 표시 영역을 가지며, 상기 구동 장치에 의해 상기 제2 하우징이 상기 제1하우징으로부터 제2 방향으로 이동 시 상기 제1 표시 영역 및 제2 표시 영역으로 확장되는 디스플레이, 및 상기 디스플레이 및 상기 구동 장치와 작동적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 아바타 서비스 실행 시에 표시될 배경 이미지를 획득하고, 전자 장치의 상태에 기반하여 상기 디스플레이에서 시각적 정보가 표시될 활성화 영역의 면적을 트래킹하고, 상기 활성화 영역의 면적에 대응하여 상기 획득된 배경 이미지에서 잘라내기 영역을 결정하고, 상기 결정된 잘라내기 영역 내에 포함된 공간 요소를 분석하여 아바타를 표현할 가상의 공간 범위를 도출하고, 상기 아바타의 특성 정보를 기반으로 상기 공간 범위 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 아바타 서비스 사용자 인터페이스(user interface)를 생성하고, 상기 생성된 아바타 서비스 사용자 인터페이스를 상기 잘리 내기 영역에 배경 이미지에 제공하도록 설정될 수 있다.
다양한 실시예에 따르면 플랙서블 전자 장치의 아바타 운용 방법은, 제1 하우징에 대해 제2 하우징이 제1 방향으로 이동 시 제1 표시 영역을 가지며, 상기 제2 하우징이 상기 제1하우징으로부터 제2 방향으로 이동 시 상기 제1 표시 영역 및 제2 표시 영역으로 확장되는 디스플레이를 통해 아바타 서비스를 실행하는 요청을 수신하는 동작, 상기 디스플레이에서 시각적 정보가 표시될 활성화 영역이 상기 제1 표시 영역인 경우, 상기 아바타 서비스 실행 요청에 응답하여 상기 제1 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 아바타를 표현할 가상의 제1 공간을 도출하는 동작, 아바타의 특성 정보를 기반으로 상기 제1공간 내에서 표현 가능한 제1 자세의 아바타를 상기 제1 표시 영역인 활성화 영역에 표시하는 동작, 상기 디스플레이의 활성화 영역이 제1 표시 영역에서 제2 표시 영역의 적어도 일부까지 확장된 것에 기반하여, 상기 제1 및 제2 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 가상의 제2 공간을 도출하는 동작 및 상기 아바타의 특성 정보를 기반으로 상기 제2 공간 내에서 표현 가능한 제2 자세의 아바타 및 확장 서비스 기능 중 적어도 하나를 상기 제1 표시 영역 및 제2 표시 영역에 대응하는 활성화 영역에 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 플랙서블 전자 장치는 디스플레이의 확장 정보에 따라 아타바의 행동 범위를 변경하여 변경된 행동 범위에 대응하거나 확장된 아바타 컨텐츠들로 전환함으로써 상황에 따라 적응적으로 변경된 아바타 서비스를 사용자에게 제공할 수 있다.
도 1은 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a는 일 실시예에 따른 닫힌 상태(closed state)의 전자 장치에 관한 전면 사시도이다.
도 2b는 일 실시예에 따른 닫힌 상태의 전자 장치에 관한 후면 사시도이다.
도 3a는 일 실시예에 따른 열린 상태(open state)의 전자 장치에 관한 전면 사시도이다.
도 3b는 일 실시예에 따른 열린 상태의 전자 장치에 관한 후면 사시도이다
도 4는 일 실시예에 따른 도 2a의 전자 장치에 관한 전개 사시도이다.
도 5는 일 실시예에 따른 전자 장치의 블록도이다.
도 6은 일 실시예에 따른 플랙서블 전자 장치에서 아바타 운용 방법을 나타낸다.
도 7은 일 실시예에 따른 플랙서블 전자 장치에서 아바타 운용 방법을 나타낸다.
도 8은 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 9는 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 10은 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 11은 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 12는 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 13은 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 14는 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
도 1 은 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1 은 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102,104, 또는108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2a는 일 실시예에 따른 닫힌 상태(closed state)의 전자 장치(101)에 관한 전면 사시도이다. 도 2b는 일 실시예에 따른 닫힌 상태의 전자 장치(101)에 관한 후면 사시도이다. 도 3a는 일 실시예에 따른 열린 상태(open state)의 전자 장치(101)에 관한 전면 사시도이다. 도 3b는 일 실시예에 따른 열린 상태의 전자 장치(101)에 관한 후면 사시도이다.
다양한 실시예에 따르면, 도 2a의 전자 장치(101)는 도 1의 전자 장치(101)를 포함할 수 있다.
도 2a, 2b, 3a, 및 3b를 참조하면, 일 실시예에서, 전자 장치(101)는 슬라이딩 방식으로 화면(2301)을 확장시킬 수 있도록 구현될 수 있다. 예를 들어, 화면(2301)은 플랙서블 디스플레이(230) 중 외부로 보여지고 있는 영역일 수 있다. 도 2a 및 2b는 화면(2301)이 확장되지 않은 상태의 전자 장치(101)를 도시하고, 도 3a 및 3b는 화면(2301)이 확장된 상태의 전자 장치(101)를 도시한다. 화면(2301)이 확장되지 않은 상태는 디스플레이(230)의 슬라이딩 운동(sliding motion)을 위한 슬라이딩 플레이트(220)가 슬라이드 아웃(slide-out)되지 않은 상태로서 이하 '닫힌 상태'로 지칭될 수 있다. 화면(2301)이 확장된 상태는 슬라이딩 플레이트(220)의 슬라이드 아웃에 의해 화면(2301)이 더 이상 확장되지 않는 최대로 확장된 상태로서 이하 '열린 상태'로 지칭될 수 있다. 예를 들어, 슬라이드 아웃은 전자 장치(101)가 닫힌 상태에서 열린 상태로 전환될 때 슬라이딩 플레이트(220)가 제 1 방향(예: +x 축 방향)으로 적어도 일부 이동하는 것일 수 있다. 다양한 실시예에 따르면, 열린 상태는 닫힌 상태와 비교하여 화면(2301)이 확장된 상태로서 정의될 수 있고, 슬라이딩 플레이트(220)의 이동 위치에 따라 다양한 사이즈의 화면을 제공할 수 있다. 다양한 실시예에 따르면, 중간 상태(intermediated state)는 도 2a의 닫힌 상태 및 도 3a의 열린 상태 사이의 상태를 가리킬 수 있다. 화면(2301)은 시각적으로 노출되어 이미지를 출력 가능하게 하는 플랙서블 디스플레이(230)의 활성화 영역(active area)(또는 표시 영역, 표시 면적)을 포함할 수 있고, 전자 장치(101)는 슬라이딩 플레이트(220)의 이동 또는 플랙서블 디스플레이(230)의 이동에 따라 활성화 영역)(또는 표시 영역, 표시 면적)을 조절할 수 있다. 이하 설명에서, 열린 상태는 화면(2301)이 최대로 확장된 상태를 가리킬 수 있다. 어떤 실시예에서, 도 2a의 전자 장치(101)에 슬라이딩 운동 가능하게 배치되어 화면(2301)을 제공하는 플랙서블 디스플레이(230)는 '슬라이드 아웃 디스플레이(slide-out display) 또는 '익스펜더블 디스플레이(expandable display)'로 지칭될 수도 있다.
일 실시예에 따르면, 전자 장치(101)는 플랙서블 디스플레이(230)와 관련된 슬라이딩 구조를 포함할 수 있다. 예를 들어, 외력에 의해 플랙서블 디스플레이(230)가 설정된 거리로 이동되면, 슬라이딩 구조에 포함된 탄력 구조로 인해, 더 이상의 외력 없이도 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다 (예: 반자동 슬라이드 동작).
어떤 실시예에 따르면, 전자 장치(101)에 포함된 입력 장치를 통해 신호가 발생되면, 플랙서블 디스플레이(230)와 연결된 모터와 같은 구동 장치(예: 도 1의 구동 장치(185)로 인해 전자 장치(101)는 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환할 수 있다. 예를 들어, 하드웨어 버튼, 또는 화면을 통해 제공되는 소프트웨어 버튼을 통해 신호가 발생되면, 전자 장치(101)는 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다.
다양한 실시예에 따르면, 압력 센서와 같은 다양한 센서로부터 신호가 발생되면, 전자 장치(101)는 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다. 예를 들어, 전자 장치(101)를 손으로 휴대하거나 파지할 때 손의 일부(예: 손 바닥 또는 손가락)가 전자 장치(101)의 지정된 구간 내를 가압하는 스퀴즈 제스처(squeeze gesture)가 센서를 감지될 수 있고, 이에 대응하여 전자 장치(101)는 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다.
일 실시예에 따르면, 디스플레이(230)는 제 2 구간(②도 3a 참조)을 포함할 수 있다. 제 2 구간(②은 전자 장치(101)의 닫힌 상태에서 열린 상태로 전환될 때 화면(2301)의 확장된 부분을 포함할 수 있다. 전자 장치(101)가 닫힌 상태에서 열린 상태로 전환될 때, 제 2 구간(②은 미끄러지듯 전자 장치(101)의 내부 공간으로부터 인출되고, 이로 인해 화면(2301)이 확장될 수 있다. 전자 장치(101)가 열린 상태에서 닫힌 상태로 전환될 때, 제 2 구간(②의 적어도 일부는 미끄러지듯 전자 장치(101)의 내부 공간으로 인입되고, 이로 인해 화면(2301)이 축소될 수 있다. 전자 장치(101)가 열린 상태에서 닫힌 상태로 전환될 때, 제 2 구간(②의 적어도 일부는 휘어지면서 전자 장치(101)의 내부 공간으로 이동될 수 있다. 예를 들어, 플랙서블 디스플레이(230)는 폴리이미드(PI(polyimide)), 또는 폴리에스터(PET(polyester))를 포함하는 폴리머 소재로 형성된 유연한 기판(예: 플라스틱 기판)을 포함할 수 있다. 제 2 구간(②은 전자 장치(101)가 열린 상태 및 닫힌 상태 사이를 전환할 때 플랙서블 디스플레이(230)에서 휘어지는 부분으로서, 예를 들어, 벤더블 구간(bendable section)으로 지칭될 수도 있다. 이하 설명에서는, 제 2 구간(②은 벤더블 구간으로 지칭하겠다.
일 실시예에 따르면, 전자 장치(101)는 하우징(210), 슬라이딩 플레이트(220), 또는 플랙서블 디스플레이(230)를 포함할 수 있다.
하우징(또는, 케이스(case))(210)은, 예를 들어, 백 커버(back cover)(212), 제 1 사이드 커버(side cover)(213), 또는 제 2 사이드 커버(214)를 포함할 수 있다. 백 커버(212), 제 1 사이드 커버(213), 또는 제 2 사이드 커버(214)는 전자 장치(101)의 내부에 위치된 지지 부재(미도시)에 연결될 수 있고, 전자 장치(101)의 외관을 적어도 일부 형성할 수 있다.
백 커버(212)는, 예를 들어, 전자 장치(101)의 후면(101B)을 적어도 일부 형성할 수 있다. 일 실시예에서, 백 커버(212)는 실질적으로 불투명할 수 있다. 예를 들어, 백 커버(212)는 코팅 또는 착색된 유리, 세라믹, 폴리머, 금속(예: 알루미늄, 스테인레스 스틸(STS), 또는 마그네슘), 또는 상기 물질들 중 적어도 둘의 조합에 의해 형성될 수 있다. 어떤 실시예에 따르면, 플랙서블 디스플레이(230)의 벤더블 구간(②이 하우징(210)의 내부 공간에 인입된 상태(예: 닫힌 상태)에서, 벤더블 구간(②의 적어도 일부는 백 커버(212)를 통해 외부로부터 보일 수 있게 배치될 수도 있다. 이러한 경우, 백 커버(212)는 투명 소재 및/또는 반투명 소재로 형성될 수 있다.
일 실시예에 따르면, 백 커버(212)는 평면부(212a), 및 평면부(212a)를 사이에 두고 서로 반대 편에 위치된 곡면부들(212b, 212c)을 포함할 수 있다. 곡면부들(212b, 212c)은 백 커버(212)의 양쪽 상대적으로 긴 에지들(미도시)에 각각 인접하여 형성되고, 백 커버(212)와는 반대 편에 위치된 화면 쪽으로 휘어져 심리스하게 연장될 수 있다. 어떤 실시예에 따르면, 백 커버(212)는 곡면부들(212b, 212c) 중 하나를 포함하거나 곡면부들(212b, 212c) 없이 구현될 수 있다.
일 실시예에 따르면, 제 1 사이드 커버(213) 및 제 2 사이드 커버(214)는 서로 반대 편에 위치될 수 있다. 예를 들어, 제 1 사이드 커버(213) 및 제 2 사이드 커버(214)는 슬라이딩 플레이트(220)의 슬라이드 아웃의 제 1 방향(예: +x 축 방향)과는 직교하는 제 2 방향(예: y 축 방향)으로 플랙서블 디스플레이(230)를 사이에 두고 서로 반대 편에 위치될 수 있다. 제 1 사이드 커버(213)는 전자 장치(101)의 제 1 측면(213a)의 적어도 일부를 형성할 수 있고, 제 2 사이드 커버(214)는 제 1 측면(213a)과는 반대 방향으로 향하는 전자 장치(101)의 제 2 측면(214a)의 적어도 일부를 형성할 수 있다. 제 1 사이드 커버(213)는 제 1 측면(213a)의 에지로부터 연장된 제 1 테두리부(또는, 제 1 림(rim))(213b)를 포함할 수 있다. 예를 들어, 제 1 테두리부(213b)는 전자 장치(101)의 일측 베젤(bezel)을 적어도 일부 형성할 수 있다. 제 2 사이드 커버(214)는 제 2 측면(214a)의 에지로부터 연장된 제 2 테두리부(또는, 제 2 림)(214b)를 포함할 수 있다. 예를 들어, 제 2 테두리부(214b)는 전자 장치(101)의 타측 베젤을 적어도 일부 형성할 수 있다. 일 실시예에 따르면, 도 2a의 닫힌 상태에서 제 1 테두리부(213b)의 표면, 제 2 테두리부(214b)의 표면, 및 슬라이딩 플레이트(220)의 표면은 매끄럽게 연결되어, 화면(2301)의 제 1 곡면부(230b) 쪽에 대응하는 일측 곡면부(미도시)를 형성할 수 있다. 다양한 실시예에 따르면, 제 1 테두리부(213b)의 표면 또는 제 2 테두리부(214b)의 표면은 제 1 곡면부(230b)와는 반대 편에 위치된 화면(2301)의 제 2 곡면부(230c) 쪽에 대응하는 타측 곡면부(미도시)를 포함할 수 있다.
일 실시예에 따르면, 슬라이딩 플레이트(220)는 전자 장치(101)의 내부에 위치된 지지 부재(미도시) 상에서 슬라이딩 운동을 할 수 있다. 플랙서블 디스플레이(230)의 적어도 일부는 슬라이딩 플레이트(220)에 배치될 수 있고, 도 2a의 닫힌 상태 또는 도 3a의 열린 상태는 상기 지지 부재 상에서의 슬라이딩 플레이트(220)의 위치에 기초하여 형성될 수 있다. 일 실시예에 따르면, 플랙서블 디스플레이(230)는 접착 부재(또는 점착 부재)(미도시)를 통해 슬라이딩 플레이트(120)에 부착될 수 있다. 일 실시예에 따르면, 상기 접착 부재는 열반응 접착 부재, 광반응 접착 부재, 일반 접착제 및/또는 양면 테이프를 포함할 수 있다. 어떤 실시예에 따르면, 플랙서블 디스플레이(230)는 슬라이딩 플레이트(220)에 형성된 리세스(recess)에 슬라이딩 방식으로 삽입되어 슬라이딩 플레이트(220)에 배치 및 고정될 수 있다. 슬라이딩 플레이트(230)는 플랙서블 디스플레이(230)의 적어도 일부를 지지하는 역할을 하며, 어떤 실시예에서는 디스플레이 지지 구조로 지칭될 수도 있다.
일 실시예에 따르면, 슬라이딩 플레이트(220)는 전자 장치(101)의 외면(예: 외부로 노출되어 전자 장치(101)의 외관을 형성하는 면)을 형성하는 제 3 테두리부(220b)를 포함할 수 있다. 예를 들어, 제 3 테두리부(220b)는 도 2a의 닫힌 상태에서 제 1 테두리부(213b) 및 제 2 테두리부(214b)와 함께 화면 주변의 베젤을 형성할 수 있다. 제 3 테두리부(220b)는, 닫힌 상태에서, 제 1 사이드 커버(213)의 일단부 및 제 2 사이드 커버(214)의 일단부를 연결하도록 제 2 방향(예: y 축 방향)으로 연장될 수 있다. 예를 들어, 도 2a의 닫힌 상태에서 제 3 테두리부(220b)의 표면은 제 1 테두리부(213b)의 표면 및/또는 제 2 테두리부(214b)의 표면과 매끄럽게 연결될 수 있다.
일 실시예에 따르면, 슬라이딩 플레이트(220)의 슬라이드 아웃으로 인해, 벤더블 구간(②의 적어도 일부는 전자 장치(101)의 내부로부터 밖으로 나오면서 도 3a에서와 같이 화면(2301)이 확장된 상태(예: 열린 상태)가 제공될 수 있다.
일 실시예에 따르면, 도 2a의 닫힌 상태에서, 화면(2301)은 평면부(230a), 및 평면부(230a)를 사이에 두고 서로 반대 편에 위치된 제 1 곡면부(230b) 및/또는 제 2 곡면부(230c)를 포함할 수 있다. 예를 들어, 제 1 곡면부(230b) 및 제 2 곡면부(230c)는 평면부(230a)를 사이에 두고 실질적으로 대칭(symmetrical)일 수 있다. 예를 들어, 도 2a의 닫힌 상태에서, 제 1 곡면부(230b) 및/또는 제 2 곡면부(230c)는 백 커버(212)의 곡면부들(212b, 212c)과 각각 대응하여 위치될 수 있고, 백 커버(212) 쪽으로 휘어진 형태일 수 있다. 도 2a의 닫힌 상태에서 도 3a의 열린 상태로 전환되면, 평면부(230a)는 확장될 수 있다. 예를 들면, 도 2a의 닫힌 상태에서 제 2 곡면부(230c)를 형성하는 벤더블 구간(②의 일부 영역은, 도 2a의 닫힌 상태에서 도 3a의 열린 상태로 전환될 때 확장된 평면부(230a)에 포함되며 벤더블 구간(②의 다른 영역으로 형성될 수 있다.
일 실시예에 따르면, 전자 장치(101)는, 벤더블 구간(②의 인입 또는 인출을 위한 오프닝(미도시), 및/또는 오프닝에 위치된 풀리(pulley)(미도시)를 포함할 수 있다. 풀리는 벤더블 구간(②에 대응하여 위치될 수 있고, 도 2a의 닫힌 상태 및 도 3a의 열린 상태 사이의 전환에서 풀리의 회전을 통해 벤더블 구간(②의 이동 및 그 이동 방향이 안내될 수 있다. 제 1 곡면부(230b)는 슬라이딩 플레이트(220)의 일면에 형성된 곡면에 대응하여 형성될 수 있다. 제 2 곡면부(230c)는 벤더블 구간(②중 풀리의 곡면에 대응하는 부분에 의해 형성될 수 있다. 제 1 곡면부(230c)는 전자 장치(101)의 닫힌 상태 또는 열린 상태에서 제 2 곡면부(230b)의 반대 편에 위치되어 화면(2301)의 심미성을 향상시킬 수 있다. 어떤 실시예에 따르면, 제 1 곡면부(230b) 없이 평면부(230a)가 확장된 형태로 구현될 수도 있다.
일 실시예에 따르면, 플랙서블 디스플레이(230)는 터치 감지 회로(예: 터치 센서)를 더 포함할 수 있다. 다양한 실시예에 따르면(미도시), 플랙서블 디스플레이(230)는 터치의 세기(압력)를 측정할 수 있는 압력 센서, 및/또는 자기장 방식의 펜 입력 장치(예: 스타일러스 펜)를 검출하는 디지타이저와 결합되거나 인접하여 배치될 수 있다. 예를 들면, 디지타이저는 펜 입력 장치로부터 인가된 전자기 유도 방식의 공진 주파수를 검출할 수 있도록 유전체 기판상에 배치되는 코일 부재를 포함할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 마이크 홀(251)(예: 도 1의 입력 모듈(150)), 스피커 홀(252)(예: 도 1의 음향 출력 모듈(155)), 커넥터 홀(253)(에: 도 1의 연결 단자(178)), 카메라 모듈(254)(예: 도 1의 카메라 모듈(180)), 또는 플래시(255)를 포함할 수 있다. 다양한 실시예에 따르면, 플래시(255)는 카메라 모듈(254)에 포함하여 구현될 수도 있다. 어떤 실시예에서, 전자 장치(101)는 구성 요소들 중 적어도 하나를 생략하거나 다른 구성 요소를 추가적으로 포함할 수 있다.
마이크 홀(251)은, 예를 들어, 전자 장치(101)의 내부에 위치된 마이크(미도시)에 대응하여 제 2 측면(214a)의 적어도 일부에 형성될 수 있다. 마이크 홀(251)의 위치는 도 2a의 실시예에 국한되지 않고 다양할 수 있다. 어떤 실시예에 따르면, 전자 장치(101)는 소리의 방향을 감지할 수 있는 복수의 마이크들을 포함할 수 있다.
스피커 홀(252)은, 예를 들어, 전자 장치(101)의 내부에 위치된 스피커에 대응하여 제 2 측면(214a)의 적어도 일부에 형성될 수 있다. 스피커 홀(252)의 위치는 도 2a의 실시예에 국한되지 않고 다양할 수 있다. 다양한 실시예에 따르면, 전자 장치(101)는 통화용 리시버 홀을 포함할 수 있다. 어떤 실시예에서는 마이크 홀(251) 및 스피커 홀(252)이 하나의 홀로 구현되거나, 피에조 스피커와 같이 스피커 홀(252)이 생략될 수 있다.
커넥터 홀(253)은, 예를 들어, 전자 장치(101)의 내부에 위치된 커넥터(예: USB 커넥터)에 대응하여 제 2 측면(214a)의 적어도 일부에 형성될 수 있다. 전자 장치(101)는 커넥터 홀(253)을 통해 커넥터와 전기적으로 연결된 외부 전자 장치와 전력 및/또는 데이터를 송신 및/또는 수신할 수 있다. 커넥터 홀(253)의 위치는 도 2a의 실시예에 국한되지 않고 다양할 수 있다.
카메라 모듈(254) 및 플래시(255)는, 예를 들어, 전자 장치(101)의 후면(101B)에 위치될 수 있다. 카메라 모듈(154)은 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 플래시(255)는, 예를 들어, 발광 다이오드 또는 제논 램프(xenon lamp)를 포함할 수 있다. 어떤 실시예에서는, 2개 이상의 렌즈들(적외선 카메라, 광각 및 망원 렌즈) 및 이미지 센서들이 전자 장치(101)의 한 면에 위치될 수 있다. 다양한 실시예에 따르면, 도 2b 또는 3b의 실시예에 국한되지 않고, 전자 장치(101)는 복수의 카메라 모듈들을 포함할 수 있다. 카메라 모듈(254)은 복수의 카메라 모듈들 중 하나일 수 있다. 예를 들면, 전자 장치(101)는 각각 다른 속성(예: 화각) 또는 기능을 가진 복수의 카메라 모듈들(예: 듀얼 카메라, 또는 트리플 카메라)을 포함할 수 있다. 예를 들면, 서로 다른 화각을 갖는 렌즈를 포함하는 카메라 모듈(예: 카메라 모듈(254))이 복수 개로 구성될 수 있고, 전자 장치(101)는 사용자의 선택에 기반하여, 전자 장치(101)에서 수행되는 카메라 모듈의 화각을 변경하도록 제어할 수 있다. 또한, 복수의 카메라 모듈들은, 광각 카메라, 망원 카메라, 컬러 카메라, 흑백(monochrome) 카메라, 또는 IR(infrared) 카메라(예: TOF(time of flight) camera, structured light camera) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, IR 카메라는 센서 모듈(미도시)의 적어도 일부로 동작될 수 있다.
다양한 실시예에 따르면(미도시), 전자 장치(101)는 화면(2301)이 향하는 방향으로 놓인 전자 장치(101)의 일면(예: 전면(101A))을 통해 광을 수신된 광을 기초로 이미지 신호를 생성하는 카메라 모듈(예: 전면 카메라)을 더 포함할 수 있다. 예를 들어, 카메라 모듈(254)은, 도 2b 또는 3b의 실시예에 국한되지 않고, 플랙서블 디스플레이(230)에 형성된 오프닝(예: 관통 홀, 또는 노치(notch))과 정렬되어 하우징(210)의 내부에 위치될 수 있다. 카메라 모듈(254)은 상기 오프닝, 및 상기 오프닝과 중첩된 투명 커버의 일부 영역을 통해 광을 수신하여 이미지 신호를 생성할 수 있다. 상기 투명 커버는 플랙서블 디스플레이(230)를 외부로부터 보호하는 역할을 하며, 예를 들어, 폴리이미드 또는 울트라신글라스(UTG(ultra thin glass)와 같은 물질을 포함할 수 있다.
어떤 실시예에 따르면, 도 2b 또는 3b의 실시예에 국한되지 않고, 카메라 모듈(254)은 플랙서블 디스플레이(230)의 화면(2301)의 적어도 일부의 하단에 배치될 수 있고, 카메라 모듈(254)의 위치가 시각적으로 구별(또는 노출)되지 않고 관련 기능(예: 이미지 촬영)을 수행할 수 있다. 이 경우, 예를 들어, 화면(2301)의 위에서 볼 때(예: -z 축 방향으로 볼 때), 카메라 모듈(254)은 화면(2301)의 적어도 일부에 중첩되게 배치되어, 외부로 노출되지 않으면서, 외부 피사체의 이미지를 획득할 수 있다.
다양한 실시예에 따르면(미도시), 전자 장치(101)는 키 입력 장치(예: 도 1의 입력 모듈(150))를 더 포함할 수 있다. 키 입력 장치는, 예를 들어, 제 1 사이드 커버(213)에 의해 형성된 전자 장치(101)의 제 1 측면(213a)에 위치될 수 있다. 어떤 실시예에서(미도시), 키 입력 장치는 적어도 하나의 센서 모듈을 포함할 수 있다.
다양한 실시예에 따르면(미도시), 전자 장치(101)는 다양한 센서 모듈(예: 도 1의 센서 모듈(176))을 포함할 수 있다. 센서 모듈은 전자 장치(101)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 예를 들어(미도시), 센서 모듈은 화면(2301)이 향하는 방향으로 놓인 전자 장치(101)의 전면(101A)을 통해 광을 수신된 광을 기초로 외부 물체의 근접에 관한 신호를 생성하는 근접 센서를 포함할 수 있다. 다른 예를 들어(미도시), 센서 모듈은 전자 장치(101)의 전면(101A) 또는 후면(101B)을 통해 수신된 광을 기초로 생체에 관한 정보를 검출하기 위한 지문 센서, 또는 HRM 센서와 같은 다양한 생체 센서를 포함할 수 있다. 전자 장치(101)는 다양한 다른 센서 모듈, 예를 들어, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 도 2a, 2b, 3a, 및 3c의 실시예에 국한되지 않고, 전자 장치(101)는 슬라이딩 플레이트(220)의 슬라이드 아웃시 제 3 테두리부(220b) 쪽에서 화면이 확장되는 구조로 구현될 수도 있다. 예를 들어, 도 2a의 닫힌 상태에서 제 1 곡면부(230b)를 형성하는 플랙서블 디스플레이(230)의 일부 영역은, 도 2a의 닫힌 상태에서 도 3a의 열린 상태로 전환될 때 확장된 평면부(230a)에 포함되며, 플랙서블 디스플레이(230)의 다른 영역으로 형성될 수 있다.
도 4는 일 실시예에 따른 도 2a의 전자 장치(101)에 관한 전개 사시도이다.
도 4를 참조하면, 일 실시예에서, 전자 장치(101)는 백 커버(212), 제 1 사이드 커버(213), 제 2 사이드 커버(214), 지지 부재 조립체(400), 풀리(pulley)(460), 슬라이딩 플레이트(220), 플랙서블 디스플레이(230), 지지 시트(support sheet)(470), 멀티 바 구조(muti-bar structure)(또는 멀티 바 조립체)(480), 또는 인쇄 회로 기판(490)(예: PCB(printed circuit board), FPCB(flexible PCB) 또는 RFPCB(rigid-flexible PCB))을 포함할 수 있다. 도 4의 도면 부호들 중 일부에 대한 중복 설명을 생략한다.
일 실시예에 따르면, 지지 부재 조립체(또는, 지지 구조물)(400)는 하중을 견딜 수 있는 프레임 구조로서 전자 장치(101)의 내구성 또는 강성에 기여할 수 있다. 지지 부재 조립체(400)의 적어도 일부는 비금속 물질(예: 폴리머) 또는 금속 물질을 포함할 수 있다. 백 커버(212), 제 1 사이드 커버(213), 또는 제 2 사이드 커버(214)를 포함하는 하우징(210)(도 2a 참조), 풀리(460), 슬라이딩 플레이트(220), 플랙서블 디스플레이(230), 지지 시트(470), 멀티 바 구조(480), 또는 인쇄 회로 기판(490)은 지지 부재 조립체(400)에 배치 또는 결합될 수 있다.
일 실시예에 따르면, 지지 부재 조립체(400)는 제 1 지지 부재(410), 제 2 지지 부재(420), 제 3 지지 부재(430), 제 4 지지 부재(440), 또는 제 5 지지 부재(450)를 포함할 수 있다.
제 1 지지 부재(또는 제 1 브라켓(bracket))(410)는, 예를 들어, 플레이트 형태일 수 있다. 슬라이딩 플레이트(220)는 제 1 지지 부재(410)의 일면(410a)에 배치될 수 있다. 제 2 지지 부재(또는 제 2 브라켓)(420)는, 예를 들어, z 축 방향으로 볼 때, 제 1 지지 부재(410)의 적어도 일부와 중첩된 플레이트 형태일 수 있고, 또는 제 1 지지 부재(410) 및/또는 제 3 지지 부재(430)와 결합될 수 있다. 제 2 지지 부재(420)는 제 1 지지 부재(410) 및 제 3 지지 부재(430) 사이에 위치될 수 있다. 제 3 지지 부재(430)는 제 2 지지 부재(420)를 사이에 두고 제 1 지지 부재(410) 및/또는 제 2 지지 부재(420)와 결합될 수 있다. 인쇄 회로 기판(490)은 제 1 지지 부재(410) 및 제 2 지지 부재(420) 사이에서 제 2 지지 부재(420)에 배치될 수 있다. 제 4 지지 부재(440)는 제 1 지지 부재(410), 제 2 지지 부재(420), 및 제 3 지지 부재(430)가 결합된 조립체(또는 구조)(미도시)의 일측에 결합될 수 있다. 제 5 지지 부재(450)는 제 1 지지 부재(410), 제 2 지지 부재(420), 및 제 3 지지 부재(430)가 결합된 조립체(또는 구조)(미도시)의 타측에 결합될 수 있고, 제 4 지지 부재(440)와는 반대 편에 위치될 수 있다. 제 1 사이드 커버(213)는 제 4 지지 부재(440) 쪽에서 지지 부재 조립체(400)와 결합될 수 있다. 제 2 사이드 커버(214)는 제 5 지지 부재(450) 쪽에서 지지 부재 조립체(400)와 결합될 수 있다. 백 커버(212)는 제 3 지지 부재(430) 쪽에서 지지 부재 조립체(400)와 결합될 수 있다. 제 1 지지 부재(410), 제 2 지지 부재(420), 제 3 지지 부재(430), 제 4 지지 부재(440), 또는 제 5 지지 부재(450)의 적어도 일부는 금속 물질 및/또는 비금속 물질(예: 폴리머)을 포함할 수 있다. 다양한 실시예에 따르면, 제 1 지지 부재(410), 제 2 지지 부재(420), 제 3 지지 부재(430), 제 4 지지 부재(440), 및 제 5 지지 부재(450) 중 적어도 둘 이상은 일체로 구현될 수 있다. 어떤 실시예에 따르면, 지지 부재 조립체(400)는 제 1 지지 부재(410), 제 2 지지 부재(420), 제 3 지지 부재(430), 제 4 지지 부재(440), 및 제 5 지지 부재(450) 중 적어도 일부를 형성하는 구조를 지칭할 수도 있다. 어떤 실시예에 따르면, 제 1 지지 부재(410), 제 2 지지 부재(420), 제 3 지지 부재(430), 제 4 지지 부재(440), 및 제 5 지지 부재(450) 중 일부는 생략될 수도 있다.
제 1 지지 부재(410)는, 예를 들어, 제 4 지지 부재(440)와 대면하는 제 1 측면(미도시), 제 5 지지 부재(450)와 대면하고 제 1 측면과는 반대 편에 위치된 제 2 측면(410c), 제 1 측면의 일단부 및 제 2 측면(410c)의 일단부를 연결하는 제 3 측면(미도시), 또는 제 1 측면의 타단부 및 제 2 측면(410c)의 타단부를 연결하고 제 3 측면과는 반대 편에 위치된 제 4 측면(410d)을 포함할 수 있다. 일 실시예에 따르면, 풀리(460)는 제 1 지지 부재(410)의 제 3 측면 근처에 위치될 수 있다. 또 다른 예로, 슬라이드 아웃되는 방향이 반대로 형성된 전자 장치의 경우, 풀리(460)는 제 1 지지 부재(460)의 제 4 측면(410d) 근처에 위치될 수도 있다. 풀리(460)는 제 5 지지 부재(450)로부터 제 4 지지 부재(440)로 향하는 방향(예: +y 축 방향)으로 연장된 실린더 형태의 롤러(roller)(461)를 포함할 수 있다. 풀리(460)는 롤러(461)와 연결된 제 1 회전 축(rotation shaft)(미도시) 및 제 2 회전 축(463)을 포함할 수 있고, 제 1 회전 축 및 제 2 회전 축(463)은 롤러(461)를 사이에 두고 서로 반대 편에 위치될 수 있다. 제 1 회전 축은 롤러(461) 및 제 1 사이드 커버(213) 사이에 위치될 수 있고, 제 4 지지 부재(440)와 연결될 수 있다. 제 2 회전 축(463)은 롤러(461) 및 제 2 사이드 커버(214) 사이에 위치될 수 있고, 제 5 지지 부재(450)와 연결될 수 있다. 제 4 지지 부재(440)는 제 1 회전 축이 삽입되는 제 1 관통 홀(441)을 포함할 수 있고, 제 5 지지 부재(450)는 제 2 회전 축(463)이 삽입되는 제 2 관통 홀(451)을 포함할 수 있다. 롤러(461)는 제 4 지지 부재(440)에 배치된 제 1 회전 축 및 제 5 지지 부재(450)에 배치된 제 2 회전 축(463)을 기초로 회전이 가능할 수 있다.
일 실시예에 따르면, 슬라이딩 플레이트(220)는 제 1 지지 부재(410) 상에서 슬라이딩 운동 가능하게 지지 부재 조립체(400)에 배치될 수 있다. 예를 들어, 제 1 지지 부재(410) 및 슬라이딩 플레이트(220) 사이에는 이들 간의 결합 및 슬라이딩 플레이트(220)의 이동을 지원 및 안내하기 위한 슬라이딩 구조가 마련될 수 있다. 일 실시예에 따르면, 슬라이딩 구조는 적어도 하나의 탄력 구조(401)를 포함할 수 있다. 외력에 의해 슬라이딩 플레이트(220)가 설정된 거리로 이동되면, 적어도 하나의 탄력 구조(401)로 인해, 더 이상의 외력 없이도 도 2a의 닫힌 상태에서 도 3a의 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다. 적어도 하나의 탄력 구조(401)는, 예를 들어, 토션 스프링(torsion spring)과 같은 다양한 탄력 부재를 포함할 수 있다. 예를 들어, 탄력 구조(401)로서 토션 스프링은, 슬라이딩 플레이트(220)와 연결된 일단부, 제 1 지지 부재(410)와 연결된 타단부, 및 상기 일단부 및 상기 타단부 사이의 스프링부를 포함할 수 있다. 외력에 의해 슬라이딩 플레이트(220)가 슬라이드 아웃의 제 1 방향(예: +x 축 방향)으로 설정된 거리로 이동되면, 상기 타단부에 대한 상기 일단부의 위치가 변경되어 슬라이딩 플레이트(220)는 더 이상의 외력 없이도 상기 스프링부의 탄력으로 인해 상기 제 1 방향으로 이동될 수 있고, 이로 인해 도 2a의 닫힌 상태에서 도 3a의 열린 상태로 전환될 수 있다. 외력에 의해 슬라이딩 플레이트(220)가 상기 제 1 방향의 반대의 제 2 방향(예: -x 축 방향)으로 설정된 거리로 이동되면, 상기 타단부에 대한 상기 일단부의 위치가 변경되어 슬라이딩 플레이트(220)는 더 이상의 외력 없이도 상기 스프링부의 탄력으로 인해 상기 제 2 방향으로 이동될 수 있고, 이로 인해 도 3a의 열린 상태에서 도 2a의 닫힌 상태로 전환될 수 있다.
다양한 실시예에 따르면, 하우징(210)은 지지 부재 조립체(400)의 적어도 일부를 더 포함하여 정의될 수 있다. 예를 들어, 하우징(210)은 제 1 방향(예: +z 축 방향)으로 향하는 일면(예: 제 1 지지 부재(410)에 의해 형성된 일면(410a)), 및 제 1 면(410a)과는 반대인 제 2 방향(예: -z 축 방향)으로 향하는 타면(예: 도 2b의 후면(101B))을 포함할 수 있다. 디스플레이 지지 구조(220)는 제 1 방향과는 수직하는 제 3 방향(예: x 축 방향)으로 슬라이딩 가능하게 하우징(210)의 일면(예: 제 1 지지 부재(410)에 의해 형성된 일면(410a))에 배치될 수 있다.일 실시예에 따르면, 플랙서블 디스플레이(230)는 벤더블 구간(②으로부터 연장된 제 1 구간(①을 포함할 수 있다. 제 1 구간(①은 슬라이딩 플레이트(220)에 배치될 수 있다. 도 2a의 닫힌 상태에서 도 3a의 열린 상태로 전환될 때, 슬라이딩 플레이트(220)의 이동으로 인해 제 1 구간(①과 연결된 벤더블 구간(②은 미끄러지듯 밖으로 나오면서 화면(도 3a의 화면(2301) 참조)이 확장될 수 있다. 도 2a의 열린 상태에서 도 3a의 닫힌 상태로 전환될 때, 슬라이딩 플레이트(220)의 이동으로 인해, 벤더블 구간(②은 전자 장치(101)의 안으로 적어도 일부 들어가면서 화면(도 2a의 화면(2301) 참조)이 축소될 수 있다. 지지 부재 조립체(400)는 벤더블 구간(②의 인입 또는 인출을 위한 오프닝(미도시)을 포함할 수 있고, 풀리(460)는 상기 오프닝에 위치될 수 있다. 오프닝은 제 1 지지 부재(410) 및 제 3 지지 부재(430) 사이의 일측 갭(gap)을 포함하며, 오프닝과 인접한 제 3 지지 부재(430)의 일부(431)는 롤러(461)의 곡면에 대응하는 곡형일 수 있다. 풀리(460)는 벤더블 구간(②에 대응하여 위치될 수 있고, 도 2a의 닫힌 상태 및 도 3a의 열린 상태 사이의 전환에서 벤더블 구간(②의 이동으로 풀리(460)는 회전될 수 있다.
일 실시예에 따르면, 지지 시트(sheet)(470)는 플랙서블 디스플레이(230)의 배면에 부착될 수 있다. 플랙서블 디스플레이(230)의 배면은, 복수의 픽셀들을 포함하는 디스플레이 패널로부터 빛이 방출되는 면과는 반대 편에 위치된 면을 가리킬 수 있다. 지지 시트(470)는 플랙서블 디스플레이(230)의 내구성에 기여할 수 있다. 지지 시트(470)는 도 2a의 닫힌 상태 및 도 3a 열린 상태 사이의 전환에서 발생할 수 있는 하중 또는 스트레스가 플랙서블 디스플레이(230)에 미치는 영향을 줄일 수 있다. 지지 시트(470)는, 슬라이딩 플레이트(220)가 이동될 때 이로부터 전달되는 힘에 의해 플랙서블 디스플레이(230)가 파손되는 것을 방지할 수 있다. 도시하지 않았으나, 플랙서블 디스플레이(230)는 복수의 픽셀들(pixels)을 포함하는 제 1 층과, 제 1 층과 결합된 제 2 층을 포함할 수 있다. 제 1 층은, 예를 들어, OLED(organic light emitting diode), 또는 micro LED(light emitting diode)와 같은 발광 소자로 구현되는 복수의 픽셀들을 포함하는 발광 층(예: 디스플레이 패널), 및 이 밖의 다양한 층들(예: 편광 층과 같이, 화면의 화질 개선 또는 야외 시인성을 개선하기 위한 광학 층)을 포함할 수 있다. 일 실시예에 따르면, 광학 층은 발광 층의 광원으로부터 발생되고 일정한 방향으로 진동하는 빛을 선택적으로 통과시킬 수 있다. 일 실시예에 따르면, 화면(2301)의 위에서 볼 때(예: -z 축 방향으로 볼 때), 전자 장치(101)에 포함된 적어도 하나의 전자 부품(예: 카메라 모듈, 또는 센서 모듈)과 적어도 일부 중첩되는 플랙서블 디스플레이(230)의 일부 영역에는 복수의 픽셀들이 배치되지 않을 수 있다. 어떤 실시예에 따르면, 화면(2301)의 위에서 볼 때, 전자 장치(101)에 포함된 적어도 하나의 전자 부품(예: 카메라 모듈, 또는 센서 모듈)과 적어도 일부 중첩되는 플랙서블 디스플레이(230)의 일부 영역은 다른 영역 대비 다른 픽셀 구조 및/또는 배선 구조를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 전자 부품(예: 카메라 모듈, 또는 센서 모듈)과 적어도 일부 중첩되는 플랙서블 디스플레이(230)의 일부 영역은 다른 영역 대비 다른 픽셀 밀도를 가질 수 있다. 예를 들어, 상기 적어도 하나의 전자 부품(예: 카메라 모듈, 또는 센서 모듈)과 적어도 일부 중첩되는 플랙서블 디스플레이(230)의 일부 영역은, 오프닝을 포함하지 않더라도, 픽셀 구조 및/또는 배선 구조의 변경에 의해 형성된 실질적으로 투명한 영역으로 구현될 수 있다. 제 2 층은 제 1 층을 지지하고 보호하는 역할(예: 완충 부재(cushion)), 빛을 차폐하는 역할, 전자기파를 흡수 또는 차폐하는 역할, 또는 열을 확산, 분산, 또는 방열하는 역할을 위한 다양한 층들을 포함할 수 있다. 일 실시예에 따르면, 제 2 층의 적어도 일부는 도전성 부재(예: 금속 플레이트)로써, 전자 장치(101)의 강성 보강에 도움을 줄 수 있고, 주변 노이즈를 차폐하며, 주변의 열 방출 부품(예: 디스플레이 구동 회로)으로부터 방출되는 열을 분산시키기 위하여 사용될 수 있다. 일 실시예에 따르면, 도전성 부재는 구리(Cu(copper)), 알루미늄(Al(aluminum)), SUS(stainless steel) 또는 CLAD(예: SUS와 Al이 교번하여 배치된 적층 부재) 중 적어도 하나를 포함할 수 있다.
지지 시트(470)는 플랙서블 디스플레이(230)의 제 2 층을 적어도 일부 커버하여 제 2 층의 배면에 부착될 수 있다. 지지 시트(470)는 다양한 금속 물질 및/또는 비금속 물질(예: 폴리머)로 형성될 수 있다. 일 실시예에 따르면, 지지 시트(470)는 스테인리스 스틸(stainless steel)을 포함할 수 있다. 어떤 실시예에 따르면, 지지 시트(470)는 엔지니어링 플라스틱(engineering plastic)을 포함할 수 있다. 어떤 실시예에 따르면, 지지 시트(470)는 플랙서블 디스플레이(230)와 일체로 구현될 수 있다. 일 실시예에 따르면, 지지 시트(470)는, 플랙서블 디스플레이(230)가 휘어져 배치되는 부분(예: 도 3a 또는 4의 벤더블 구간(②도 2a 또는 3a의 제 1 곡면부(230b))과 적어도 일부 중첩된 격자 구조(lattice structure)(미도시)를 포함할 수 있다. 격자 구조는 복수의 오프닝들(openings) 또는 복수의 슬릿들(slits)을 포함할 수 있고, 플랙서블 디스플레이(230)의 굴곡성에 기여할 수 있다. 다양한 실시예에 따르면, 지지 시트(470)는, 격자 구조를 대체하여, 복수의 리세스들(recess)을 포함하는 리세스 패턴(미도시)을 포함할 수 있고, 리세스 패턴은 플랙서블 디스플레이(230)의 굴곡성에 기여할 수 있다. 다양한 실시예에 따르면, 격자 구조 또는 리세스 패턴은 도 2a 또는 3a의 평면부(230a)의 적어도 일부로 확장될 수도 있다. 다양한 실시예에 따르면, 격자 구조 또는 리세스 패턴을 포함하는 지지 시트(470), 또는 이에 상응하는 도전성 부재는 복수 개의 층으로 형성될 수도 있다.
일 실시예에 따르면, 멀티 바 구조(480)는 슬라이딩 플레이트(220)와 연결될 수 있고, 지지 시트(470)와 대면하는 제 1 면(481), 및 제 1 면(481)과는 반대 편에 위치된 제 2 면(482)을 포함할 수 있다. 슬라이딩 플레이트(220)의 이동 시 멀티 바 구조(480)는 제 2 면(482)과 마찰되어 회전하는 롤러(461)에 의해 그 이동 및 방향이 안내될 수 있다. 일 실시예에 따르면, 제 2 면(482)은, 풀리(460)의 제 2 회전 축(463)에서 제 1 회전 축(미도시)으로 향하는 방향(예: +y 축 방향)으로 연장된 바(bar)(미도시)가 복수 개 배열된 형태를 포함할 수 있다. 멀티 바 구조(480)는 복수의 바들 사이의 상대적으로 얇은 두께를 가지는 부분들에서 휘어질 수 있다. 다양한 실시예에서, 이러한 멀티 바 구조(480)는 '가요성 트랙(flexible track)' 또는 '힌지 레일(hinge rail)'와 같은 다른 용어로 지칭될 수도 있다.
일 실시예에 따르면, 도 2a의 닫힌 상태 또는 도 3a의 열린 상태에서, 멀티 바 구조(480)의 적어도 일부는 화면(2301)(도 2a 또는 3a 참조)과 중첩되게 위치되고, 플랙서블 디스플레이(230)의 벤더블 구간(②이 들뜸 없이 플랙서블 디스플레이(230)의 제 1 구간(①과 매끄럽게 연결된 형태로 유지되도록 벤더블 구간(②을 지지할 수 있다. 멀티 바 구조(480)는, 도 2a의 닫힌 상태 및 도 3a의 열린 상태 사이의 전환에서 벤더블 구간(②이 들뜸 없이 제 1 구간(①과 매끄럽게 연결된 형태를 유지하면서 이동 가능하게 기여할 수 있다.
일 실시예에 따르면, 지지 시트(470)는 플랙서블 디스플레이(230)를 통해 전자 장치(101)의 내부에 위치된 요소들(예: 멀티 바 구조(380))이 실질적으로 보이지 않게 할 수 있다.
화면이 확장된 상태(예: 도 3a의 열린 상태)에서 플랙서블 디스플레이(230) 및/또는 지지 시트(470)의 탄력으로 인한 들뜸으로 인해 매끄럽지 않은 화면이 제공될 수 있다. 다양한 실시예에 따르면, 이를 방지하기 위하여 플랙서블 디스플레이(230) 및/또는 지지 시트(470)에 대한 장력 구조(미도시)가 마련될 수 있다. 장력 구조는 장력의 유지하면서 원활한 슬라이드 동작에 기여할 수 있다.
일 실시예에 따르면, 인쇄 회로 기판(490)에는, 프로세서(예: 도 1의 프로세서(120)), 메모리(예: 도 1의 메모리(130)), 및/또는 인터페이스(예: 도 1의 인터페이스(177))가 장착될 수 있다. 프로세서는, 예를 들어, 중앙처리장치, 어플리케이션 프로세서, 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서 중 하나 또는 그 이상을 포함할 수 있다.
메모리는, 예를 들어, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 인터페이스는, 예를 들어, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 및/또는 오디오 인터페이스를 포함할 수 있다. 인터페이스는, 예를 들어, 전자 장치(101)를 외부 전자 장치와 전기적 또는 물리적으로 연결시킬 수 있으며, USB 커넥터, SD 카드/MMC 커넥터, 또는 오디오 커넥터를 포함할 수 있다.
전자 장치(101)는 인쇄 회로 기판(490)에 배치되거나 인쇄 회로 기판(490)과 전기적으로 연결된 이 밖의 다양한 요소들을 포함할 수 있다. 예를 들어, 전자 장치(101)는 제 1 지지 부재(410) 및 제 2 지지 부재(420) 사이, 또는 제 2 지지 부재(420) 및 백 커버(212) 사이에 위치된 배터리(미도시)를 포함할 수 있다. 배터리(미도시)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 또는 재충전 가능한 2차 전지, 또는 연료 전지를 포함할 수 있다. 배터리(미도시)는 전자 장치(101) 내부에 일체로 배치될 수 있거나, 전자 장치(101)로부터 탈부착 가능하게 배치될 수도 있다. 일 실시예에 따르면, 전자 장치(101)는, 제 1 지지 부재(410) 및 제 2 지지 부재(420) 사이, 또는 제 2 지지 부재(420) 및 백 커버(212) 사이에 위치된 안테나(미도시)를 포함할 수 있다. 안테나(미도시)는, 예를 들어, NFC(near field communication) 안테나, 무선 충전 안테나, 및/또는 MST(magnetic secure transmission) 안테나를 포함할 수 있다. 안테나(미도시)는, 예를 들어, 외부 장치와 근거리 통신을 하거나, 충전에 필요한 전력을 무선으로 송수신 할 수 있다. 다른 실시예에서는, 제 1 사이드 커버(213) 및/또는 제 2 사이드 커버(214)의 일부 또는 그 조합에 의하여 안테나 구조가 형성될 수 있다.
일 실시예에 따르면, 전자 장치(101)는 플랙서블 디스플레이(230) 및 인쇄 회로 기판(490)을 전기적으로 연결하는 연성 인쇄 회로 기판(FPCB(flexible printed circuit board))(237)을 포함할 수 있다. 예를 들어, 연성 인쇄 회로 기판(237)은 슬라이딩 플레이트(220)에 형성된 오프닝(미도시) 및 제 1 지지 부재(410)에 형성된 오프닝(미도시)을 통해 인쇄 회로 기판(490)과 전기적으로 연결될 수 있다.
도 5는 다양한 실시예에 따른 전자 장치의 블록 구성도이다.
도 5를 참조하면, 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101)는 디스플레이(510), 프로세서(520)(예: 도 1의 프로세서(120)), 구동 장치(530), 센서(540) 및 메모리(550)를 포함할 수 있다. 전자 장치(101)는 도 1의 전자 장치(101)의 구성 및/또는 기능 중 적어도 일부를 더 포함할 수 있으며, 도 1과 중복되는 구성 요소를 포함할 수 있다.
도 5의 전자 장치(101)는 슬라이딩 방식 또는 롤러 방식으로 시각적 정보가 표시될 활성화 영역(또는 표시 영역)이 가변되도록 구현된 플렉시블 전자 장치(예: 도 2a, 2b, 3a, 3b 및 도 4의 전자 장치(101))일 수 있다.
일 실시예에 따르면, 전자 장치(101)는 가상 현실, 증강 현실 또는 혼합 현실에 아바타를 적용하는 기능, 이미지 내의 공간 요소를 분석하는 기능, 아바타 활동 반경을 의미하는 가상의 3D(3 dimensional) 공간을 도출하는 기능, 3D 공간에 맞는 아바타 컨텐츠 서비스를 제공하는 기능 중 적어도 하나를 지원할 수 있다. 상기 기능들은 아바타 어플리케이션, 가상 현실 어플리케이션, 증강 현실 어플리케이션 또는 혼합 현실 어플리케이션을 통해 제공될 수 있다. 또는, 상기 기능들은 카메라 어플리케이션이 제공하는 기능들 중 하나(예: 앱인앱(app in app))로서 제공될 수 있다.
디스플레이(510)는 외부로 노출되는 제1 표시 영역(A1)과 전자 장치(101) 상태에 따라 내부로 인입되거나 외부로 인출되는 제2 표시 영역(A2)을 포함할 수 있다.
앞서 설명한 바와 같이, 디스플레이(510)는 전자 장치(101)의 상태에 기반하여, 디스플레이(510)에서 시각적 정보(예: 실행 화면)가 표시될 활성화 영역이 결정될 수 있다. 예를 들어, 전자 장치(101)가 제2 표시 영역(A2)이 내부로 인입되는 제1 상태(예: 닫힌 상태)인 경우, 활성화 영역은 제1 표시 영역(A1)으로 결정되고 제1 표시 영역(A1)에 시각적 정보가 표시될 수 있다. 다른 예를 들어, 전자 장치(101)가 제2 표시 영역(A2)이 외부로 인출되는 제2 상태(에: 오픈 상태)인 경우, 활성화 영역은 디스플레이(510)의 전체 영역(예: 제1 표시 영역(A1) 및 제2 표시 영역(A1))으로 결정되고, 전체 영역에 시각적 정보가 표시될 수 있다.
어떤 실시예에 따르면, 디스플레이(510)는 사용자 입력 또는 입력 누적 횟수에 따라 전자 장치(101) 외부로 노출되는 제2 표시 영역(A2)의 면적이 가변 될 수 있다. 예를 들어, 디스플레이(510)는 제2 표시 영역(A2)이 단계적으로 노출되도록 구현될 수도 있다.
구동 장치(530)는 디스플레이(510)의 적어도 일부가 전자 장치(101)의 하우징 내부 공간으로 인입되거나 인출되도록 제어하는 구성일 수 있다. 예를 들어, 구동 장치(530)는 회동 조립체, 슬라이딩 모터로 구현될 수 있으나, 이에 한정하는 것은 아니다.
어떤 실시예에 따르면, 전자 장치(101)는 외력(예: 전자 장치(101)를 가압하는 스퀴즈 제스처(squeeze gesture))에 의해 구동 장치(530)를 제어할 수 있다. 전자 장치(101)는 구동 장치(530)의 탄력 구조로 인해 더 이상의 외력 없이도 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환(예: 반자동 슬라이드 동작)될 수 있다.
어떤 실시예에 따르면 전자 장치(101)는 입력 장치(예: 하드웨어 버튼 또는 화면을 통해 제공되는 소프트웨어 버튼)을 통해 발생된 신호가 감지되면, 구동 장치(530)가 동작하여 닫힌 상태에서 열린 상태로, 또는 열린 상태에서 닫힌 상태로 전환될 수 있다.
센서(540)는 전자 장치(101)의 상태(예: 제1 상태, 제2 상태)를 인식하기 위해 사용되는 데이터를 생성할 수 있다. 센서(540)는 구동 장치(530)에 부착되어 구동 장치(530)의 회전 각도에 대응하는 데이터를 생성하여 출력하는 센서(예: 인코더(encoder), 홀(hall) 센서))를 포함할 수 있다. 다른 예를 들어, 센서(540)는 디스플레이(510)의 지정된 부분(예: 제2 표시 영역(A2)의 일부)에 배치되어 벤더블 구간(②)의 곡률에 대응하는 데이터를 생성하는 센서를 포함할 수도 있다.
메모리(550)는 아바타 서비스와 관련된 데이터를 저장할 수 있다. 메모리(550)는 활성화 영역으로 설정된 디스플레이(510)의 일부((예: 제1 표시 영역(A1))를 통해 제1 아바타 컨텐츠를 제공하고, 전자 장치(101)가 디스플레이(510)의 일부로부터 연장된 다른 일부(예: 제2 표시 영역(A2))로 확장된 것에 기반하여 제1 아바타 컨텐츠를 제2 아바타 컨텐츠로 전환하여 제공하는 기능을 프로세서(510)가 수행하도록 하는 인스트럭션들(instructions)을 저장할 수 있다.
프로세서(550)는 디스플레이(510), 구동 장치(530), 센서(540) 및 메모리(550)와 작동적으로 연결될 수 있다.
프로세서(520)는, 센서(540) 또는 구동 장치(530)로부터 수신된 데이터에 기반하여 전자 장치(101)의 상태 변화를 인식하고, 실시간으로 반응하여 활성화 영역을 결정할 수 있다. 실시간 반응의 일 예로서, 프로세서(510)는, 활성화 영역의 면적을 트래킹(tracking)할 수 있다. 프로세서(520)는 제2 표시 영역(A2)이 외부로 노출되는 부분을 인식하고, 활성화 영역을 제1 표시 영역(A1)에서 제2 표시 영역(A2)의 노출 부분까지 확장할 수 있다.
일 실시예에 따르면, 프로세서(520)는, 이미지 관리 모듈(521), 공간 분석 모듈(523) 및 아바타 컨텐츠 관리 모듈(525)을 포함할 수 있다. 상기 모듈들은 프로세서(520)(예: 어플리케이션 프로세서 또는 이미지 처리 프로세서)의 하드웨어 모듈로 구성될 수 있다. 상기 모듈들(521,523,525) 중에서 적어도 하나는 프로세서와 다른 별도의 하드웨어로서 전자 장치에 구성될 수도 있다. 또는, 상기 모듈들(521,523,525)은 소프트웨어(예: 프로그램(140))로 구현될 수도 있으며, 프로세서(210)는 상기 소프트웨어에서 구현된 인스트럭션들을 기반으로 동작들을 실행할 수 있다.
이미지 관리 모듈(521)은 아바타(예: AR(augmented reality) 아바타)와 관련된 가상 현실, 증강 현실 또는 혼합 현실의 배경 이미지(또는 배경 영상)를 획득하고, 디스플레이(510), 구동 장치(530) 또는 센서(540)로부터 활성화 영역 정보를 획득하고, 활성화 영역의 면적을 트래킹할 수 있다.
이미지 관리 모듈(521)은 전자 장치(101)의 상태 변화에 따라 변화되는 활성화 영역에 실시간으로 반응하여 배경 이미지 내에서 현재 디스플레이(510)의 활성화 영역의 면적에 맞는 잘라내기(cutoff, cropping) 영역(또는 뷰(view) 영역)을 결정할 수 있다. 배경 이미지는 가상 현실 공간 이미지(예: 360도 가상 현실 공간) 또는 카메라로부터 획득되는 현실 이미지(real image) 일 수 있으나, 이에 한정되는 것은 아니다.
공간 분석 모듈(523)은 잘라내기 영역 내의 공간 요소(예: 바닥, 벽, 천장, 물체)를 인식하고, 각 공간 요소의 파라미터(예: 크기, 면적, 높이, 거리)를 분석할 수 있다. 공간 분석 모듈(523)은 잘라내기 영역의 공간 요소를 기반으로 배경 이미지의 일부(예: 잘라내기 영역)에서 아바타를 위치시킬 가상의 3D 공간(예: 아바타 활동 영역)을 도출할 수 있다. 예를 들어, 공간 분석 모듈(523)은 잘라내기 영역 내에 바닥면적을 기반으로 가상의 3D 공간을 위한 x, y, z축 값을 결정할 수 있다.
아바타 컨텐츠 관리 모듈(525)은 3D 공간의 크기를 기반으로 3D 공간 내에서 표현이 가능한 아바타 컨텐츠들을 선별하는 아바타 서비스 사용자 인터페이스(UI; user interface)를 구성하여 디스플레이(510)에 제공할 수 있다. 아바타 컨텐츠 관리 모듈(525)은 아바타와 관련된 기능을 지원하기 위한 UI 환경을 전자 장치(101)의 상태에 따라 결정된 디스플레이(510)의 활성화 영역에 제공할 수 있다.
아바타 컨텐츠 관리 모듈(525)은 아바타(예: 디폴트 아바타 또는 사용자에 의해 지정된 아타바)의 특성 정보(예: 아바타 다리, 팔, 바디 및 얼굴의 사이즈, 아바타 모션, 아바타 애니메이션 활동, 아바타 자세)를 기반으로 가상의 3D 공간 내에 아바타를 위치시키고, 가상의 3D 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별할 수 있다. 예를 들어, 아바타 컨텐츠 관리 모듈(525)은 가상의 3D 공간의 특정 위치(예: 중심)에 아바타를 배치시키고, 아바타 모션, 자세 또는 애니메이션 활동 중 아바타의 다리와 팔이 가상의 3D 공간 외부로 벗어나지 않는 아바타 컨텐츠들로 선별할 수 있다.
아바타 컨텐츠 관리 모듈(525)은 전자 장치(101)의 상태 변화에 따라 변화되는 활성화 영역에 실시간으로 반응하여 가상의 3D 공간을 변경하고, 이에 대응하여 실시간으로 아바타 컨텐츠들을 선별하고, 선별된 아바타 컨텐츠들로 아바타 서비스 UI를 구성하여 디스플레이(510)에 제공할 수 있다.
아바타 컨텐츠 관리 모듈(525)은 전자 장치(101)의 상태 변화에 따라 확장된는 활성화 영역에 실시간으로 반응하여 확장된 활성화 영역에 맞는 확장 서비스 기능(예: 메인 아바타 추가 표시 기능, 아바타 인터렉션 기능, 복제 기능)을 제공할 수 있다.
다양한 실시예에 따르면 플랙서블 전자 장치(예: 도 1의 전자 장치(101), 도 5의 전자 장치(101))는, 제1 하우징, 상기 제1 하우징에 대하여 제1 방향 또는 제2 방향으로 이동이 가능하도록 배치되는 제2 하우징, 상기 제2 하우징을 상기 제1 하우징에 대하여 이동시키도록 구동되는 구동 장치(예: 도 5의 구동 장치(530)), 상기 제2 하우징이 상기 제1 하우징에 대해 제1 방향으로 이동 시 제1 표시 영역을 가지며, 상기 구동 장치에 의해 상기 제2 하우징이 상기 제1 하우징으로부터 제2 방향으로 이동 시 상기 제1 표시 영역 및 제2 표시 영역으로 확장되는 디스플레이(예: 도 1의 디스플레이 모듈(160), 도 5의 디스플레이(510)) 및 상기 디스플레이 및 상기 구동 장치와 작동적으로 연결되는 프로세서(예: 도 1의 프로세서(120)), 도 5의 프로세서(520))를 포함하고, 상기 프로세서는, 아바타 서비스 실행 시에, 상기 디스플레이에서 시각적 정보가 표시될 활성화 영역이 상기 제1 표시 영역인 경우, 상기 제1 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 아바타를 표현할 가상의 제1 공간을 도출하고, 아바타의 특성 정보를 기반으로 상기 제1 공간 내에서 표현 가능한 제1 자세의 아바타를 제공하고, 상기 디스플레이의 활성화 영역이 제1 표시 영역에서 제2 표시 영역의 적어도 일부까지 확장된 것에 기반하여, 상기 제1 및 제2 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 가상의 제2 공간을 도출하고, 상기 아바타의 특성 정보를 기반으로 상기 제2 공간 내에서 표현 가능한 제2 자세의 아바타 및 확장 서비스 기능 중 적어도 하나를 제공하도록 설정될 수 있다.
다양한 실시예에 따르면 플랙서블 전자 장치(예: 도 1의 전자 장치(101), 도 5의 전자 장치(101))는, 제1 하우징, 상기 제1 하우징에 대하여 제1 방향 또는 제2 방향으로 이동이 가능하도록 배치되는 제2 하우징, 상기 제2 하우징을 상기 제1 하우징에 대하여 이동시키도록 구동되는 구동 장치(예: 도 5의 구동 장치(530)), 상기 제2 하우징이 상기 제1 하우징에 대해 제1 방향으로 이동 시 제1 표시 영역을 가지며, 상기 구동 장치에 의해 상기 제2 하우징이 상기 제1 하우징으로부터 제2 방향으로 이동 시 상기 제1 표시 영역 및 제2 표시 영역으로 확장되는 디스플레이(예: 도 1의 디스플레이 모듈(160), 도 5의 디스플레이(510)) 및 상기 디스플레이 및 상기 구동 장치와 작동적으로 연결되는 프로세서(예: 도 1의 프로세서(120)), 도 5의 프로세서(520))를 포함하고, 상기 프로세서(120,520)는, 아바타 서비스 실행 시에 표시될 배경 이미지를 획득하고, 전자 장치의 상태에 기반하여 상기 디스플레이에서 시각적 정보가 표시될 활성화 영역의 면적을 트래킹하고, 상기 활성화 영역의 면적에 대응하여 상기 획득된 배경 이미지에서 잘라내기 영역을 결정하고, 상기 결정된 잘라내기 영역 내에 포함된 공간 요소를 분석하여 아바타를 표현할 가상의 공간 범위를 도출하고, 상기 아바타의 특성 정보를 기반으로 상기 공간 범위 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 아바타 서비스 UI를 생성하고, 상기 생성된 아바타 서비스 UI를 상기 잘리 내기 영역에 배경 이미지에 제공하도록 설정될 수 있다.
다양한 실시예에 따르면 상기 프로세서(120,520)는, 배경 이미지를 획득하고, 상기 제1 공간은, 상기 배경 이미지에서 제1 표시 영역에 대응하는 크기로 제1 잘라내기 영역을 결정하고, 상기 제1 잘라내기 영역 내의 공간 요소를 분석하여 도출하고, 상기 제2 공간은 상기 배경 이미지에서 제1 표시 영역 및 제2 표시 영역에 대응하는 크기로 제2 잘라내기 영역을 결정하고, 상기 제2 잘라내기 영역 내의 공간 요소를 분석하여 도출하도록 더 설정될 수 있다.
다양한 실시예에 따르면 상기 배경 이미지는 카메라를 통해 획득한 현실 이미지 또는 랜더링된 가상 현실 공간 이미지를 포함할 수 있다.
다양한 실시예에 따르면 상기 공간 요소는 바닥, 벽, 천장, 물체 중 적어도 하나를 포함하고, 상기 프로세서는 상기 공간 요소의 크리, 면적, 높이, 거리 중 적어도 하나를 분석하여 배경 이미지에서 상기 아바타가 위치할 바닥 면적을 계산하고, 상기 바닥 면적을 기준으로 제1 공간 또는 제2 공간의 x축, y축 및 z축 값을 결정하도록 설정될 수 있다.
다양한 실시예에 따르면 상기 아바타 특성 정보는, 아바타 다리, 팔, 바디 및 얼굴의 사이즈, 아바타 모션, 아바타 애니메이션 활동 또는 아바타 자세 중 적어도 하나에 대한 정보를 포함할 수 있다.
다양한 실시예에 따르면 상기 프로세서(120,520)는, 상기 활성화 영역이 제1 표시 영역인 것에 기반하여, 상기 제1 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 제1 아바타 서비스 사용자 인터페이스를 구성하고, 상기 제1 아바타 서비스 사용자 인터페이스에 상기 제1 자세의 아바타를 제공하고, 상기 활성화 영역이 상기 제1 표시 영역에서 상기 제2 표시 영역의 적어도 일부까지 확장된 것에 기반하여, 상기 제2 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 제2 아바타 서비스 사용자 인터페이스를 구성하고, 상기 제2 아바타 서비스 사용자 인터페이스에 상기 제2 자세의 아바타를 제공하도록 더 설정될 수 있다.
다양한 실시예에 따르면 상기 프로세서(120,520)는 상기 제2 아바타 서비스 사용자 인터페이스는 확장된 활성화 영역에 대응하는 확장 서비스 기능을 추가로 제공하도록 더 설정될 수 있다.
다양한 실시예에 따르면 상기 확장 서비스 기능은 메인 아바타 이외에 다른 아바타를 추가로 표시할 수 있는 다른 아바타 표시 기능, 메인 아타바의 복제 클론을 제공할 수 있는 클론 기능, 아바타와 상호 인터렉션을 통해 추가 기능을 실행할 수 있는 아바타 인터렉션 기능 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면 상기 제1 아바타 서비스 사용자 인터페이스는, 상기 제1 공간 내에서 표현 가능한 모션 항목들을 포함하고, 상기 제2 아바타 서비스 사용자 인터페이스는 제2 공간 내에서 표현 가능한 모션 항목들을 포함하고, 상기 프로세서(120,520)는, 상기 제1 아바타 서비스 사용자 인터페이스에서 상기 제1 공간 내에서 표현 불가능한 모션 항목들이 포함되는 경우, 상기 제1 공간 내에서 표현 가능한 모션 항목들과 상기 표현 불가능한 모션 항목들을 시각적으로 다르게 처리하도록 더 설정될 수 있다.
다양한 실시예에 따르면 상기 프로세서(120,520)는 상기 제1 아바타 서비스 사용자 인터페이스에서 상기 제1 공간 내에서 표현 불가능한 모션 항목들이 포함되는 경우, 모션 항목들 중 일부가 표현 불가능하다는 것을 안내하는 정보 또는 상기 디스플레이를 제1 표시 영역에서 제2 표시 영역의 적어도 일부까지 확장하도록 안내하는 정보를 제공하도록 더 설정될 수 있다.
도 6은 다양한 실시예에 따른 플랙서블 전자 장치의 아바타 운용 방법을 도시한다.
도 6을 참조하면, 일 실시예에 따른 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120), 도 5의 프로세서(520))는, 610 동작에서, 전자 장치(101)에 설치된 아바타와 관련된 서비스 실행 요청을 감지할 수 있다.
예를 들어, 사용자가 아바타 어플리케이션(예: 아바타 애니메이션 앱, 증강 현실 앱, 가상 현실 앱)을 터치하면, 아바타와 관련된 어플리케이션의 실행 프로세스가 시작될 수 있다. 아바타 애니메이션 앱은 아바타 캐릭터, 이모지/애니메이션 스티커, 아바타와 관련된 기능을 지원하는 어플리케이션으로 이해될 수 있다.
615 동작에서, 프로세서(520)는 아바타 앱 화면에 표시될 배경 이미지를 획득할 수 있다.
예를 들어, 배경이미지는 컨텐츠 타입에 대응하는 이미지일 수 있으며, 카메라를 이용한 현실 이미지, 서버 또는 전자 장치(1001)로부터 렌더링된 가상 현실 배경 이미지일 수 있다.
일 실시예에 따르면, 증강 현실 서비스인 경우, 프로세서는 카메라를 활성화하고, 카메라로부터 획득한 프리뷰 영상을 배경 이미지로서 획득할 수 있다.
다른 실시예에 따르면, 가상 현실 서비스인 경우, 프로세서는 가상 현실 공간 컨텐츠를 랜더링하고 랜더링 가상 현실 공간 이미지를 배경 이미지로서 획득할 수 있다.
620 동작에서, 프로세서(520)는 전자 장치 상태에 기반하여 디스플레이의 활성화 영역의 면적을 트래킹할 수 있다. 앞서 도 2를 참조하여 설명된 바와 같이, 디스플레이에 있어서 시각적 정보가 표시될 활성화 영역은, 전자 장치의 상태에 따라, 제1표시 영역(A1), 제1표시 영역(A1)과 제2표시 영역(A2)의 일부, 또는 디스플레이의 전체 영역(예: 제1표시 영역(A1) 및 제2표시 영역(A2))으로 결정될 수 있다.
프로세서(520)는 디스플레이, 구동 장치 또는 센서로부터 수시된 데이터를 이용하여 전자 장치의 상태를 인식할 수 있고, 전자 장치(101)의 상태에 기반하여 결정된 활성화 영역의 면적을 트래킹할 수 있다. 예를 들어, 프로세서(520)는 제1 표시 영역(A1)의 면적과, 디스플레이에서 제2 표시 영역(A2)이 확장된 정도에 따라 제1 표시 영역 및 제2 표시 영역을 포함하는 면적을 트래킹할 수 있다.
630 동작에서, 프로세서(520)는 트래킹된 활성화 영역의 면적에 대응하여 배경 이미지의 잘라내기 영역(또는 CROP 영역)을 결정할 수 있다. 잘라내기 영역은 배경 이미지의 일부일 수 있다. 잘라내기 영역은 전체 배경 이미지에서 시각적 정보가 표시될 활성활 영역의 크기에 대응하는 뷰 영역일 수 있다.
640 동작에서, 프로세서(520)는 잘라내기 영역 내의 공간 요소를 분석하여 아바타를 표현할 가상의 3D 공간을 도출할 수 있다. 가상의 3D 공간은 아바타를 디스플레이에 위치 또는 배치시키기 위한 임의의 공간으로, 시각적 요소로 디스플레이에 표현되지 않을 수 있으나, 이에 한정하지 않으며, 사용자 요청에 따라 시각적 요소로 표현될 수 도 있다.
일 실시예에 따르면, 프로세서(520)는 잘라내기 영역 내의 공간 요소(예: 바닥, 벽, 천장, 물체)를 인식하고, 각 공간 요소의 파라미터 값(예: 크기, 면적, 높이, 거리)을 분석할 수 있다. 예를 들어, 프로세서(520)는 잘라내기 영역 내에 바닥면의 면적을 기반으로 가상의 3D 공간을 위한 x, y, z축 값을 결정할 수 있다.
650 동작에서, 프로세서(520)는 아바타 특성 정보를 기반으로 3D 공간 내에서 표현 가능한 아바타 컨텐츠를 선별할 수 있다.
일 실시예에 따르면, 프로세서(520)는 디폴트 아바타 또는 사용자에 의해 지정된 아타바의 특성 정보(예: 아바타 다리, 팔, 바디 및 얼굴의 사이즈, 아바타 모션, 아바타 애니메이션 활동, 아바타 자세)를 기반으로, 잘라내기 영역의 가상의 3D 공간 내에 아바타를 위치시키고, 도출된 가상의 3D 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별할 수 있다. 아바타 컨텐츠들은 아타바의 모션, 동작, 애니메이션 행동, 또는 기능 중 적어도 하나를 포함할 수 있다.
660 동작에서, 프로세서(520)는 선별된 아바타 컨텐츠들을 기반으로 현재 디스플레이 크기에 대응하는 아바타 서비스 UI를 생성하고 디스플레이의 활성화 영역에 생성된 아바타 서비스 UI를 표시할 수 있다.
일 실시예에 따르면, 프로세서(520)는 잘리 내기 영역의 배경 이미지가 디스플레이에 표시되고, 잘라 내기 영역에서 도출된 가상의 3D 공간에 따라 선별된 제1 자세의 아바타 컨텐츠가 표시될 수 있다.
일 실시예에 따르면, 프로세서(520)는 가상의 3D 공간에 따라 선별된 아바타 컨텐츠들 중 랜덤하게 또는 우선 순위로 지정된 컨텐츠가 표시될 수 있다.
도 7은 일 실시예에 따른 플랙서블 전자 장치에서 아바타 운용 방법을 나타낸다.
도 7을 참조하면, 일 실시예에 따른 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120), 도 5의 프로세서(520))는, 710 동작에서, 전자 장치(101)에 설치된 아바타와 관련된 서비스 실행 요청을 감지할 수 있다.
715 동작에서, 프로세서(520)는 아바타 앱 화면에 표시될 배경 이미지를 획득할 수 있다. 예를 들어, 배경 이미지는 컨텐츠 타입에 대응하는 이미지일 수 있으며, 카메라를 이용한 현실 이미지, 서버 또는 전자 장치로부터 렌더링된 가상 현실 배경 이미지일 수 있다.
720 동작에서, 프로세서(520)는 전자 장치 상태에 기반하여 디스플레이의 활성화 영역의 면적을 트래킹할 수 있다.
프로세서(520)는 디스플레이, 구동 장치 또는 센서로부터 수신된 데이터를 이용하여 전자 장치의 상태를 인식할 수 있고, 전자 장치(101)의 상태에 기반하여 결정된 활성화 영역의 면적을 트래킹할 수 있다.
730 동작에서, 프로세서(520)는 트래킹된 활성화 영역(예: 제1 활성화 영역)의 면적에 대응하는 배경 이미지에서 공간 요소를 분석하여 가상의 제1 3D 공간을 도출할 수 있다. 가상의 3D 공간은 아바타를 디스플레이에 위치 또는 배치시키기 위한 임의의 공간으로, 시각적 요소로 디스플레이에 표현되지 않을 수 있으나, 이에 한정하지 않으며, 사용자 요청에 따라 시각적 요소로 표현될 수 도 있다.
프로세서(520)는 공간 요소(예: 바닥, 벽, 천장, 물체)를 인식하고, 각 공간 요소의 파라미터 값(예: 크기, 면적, 높이, 거리)을 분석할 수 있다. 예를 들어, 프로세서(520)는 잘라내기 영역 내에 바닥면의 면적을 기반으로 가상의 3D 공간을 위한 x, y, z축 값을 결정할 수 있다.
일 실시예에 따르면, 프로세서(520)는 실시간으로 반응하여 제1 활성화 영역의 크기에 맞는 배경 이미지를 디스플레이에 제공할 수 있다. 프로세서(520)는 제1 활성화 영역의 크기에 맞는 배경 이미지를 획득하거나 랜더링하여 디스플레이에 제공할 수 있다.
다른 실시예에 따르면, 프로세서(520)는 획득된 배경 이미지를 기반으로 트래킹된 제1 활성화 영역의 면적에 맞는 잘라내기 영역을 결정하고 잘라내기 영역 내의 공간 요소를 분석하여 가상의 제1 3D 공간을 도출할 수 있다.
735 동작에서, 프로세서(520)는 아바타 특성 정보를 기반으로 제1 3D 공간 내에서 표현될 아바타 컨텐츠를 선별하여 제1 활성화 영역에 대응하는 제1 아바타 서비스 UI를 제공할 수 있다. 제1 아바타 서비스 UI는 제1 3D 공간 내에서 표현되는 제1 자세의 아바타를 포함할 수 있다.
프로세서(520)는 디폴트 아바타 또는 사용자에 의해 지정된 아타바의 특성 정보(예: 아바타 다리, 팔, 바디 및 얼굴의 사이즈, 아바타 모션, 아바타 애니메이션 활동, 아바타 자세)를 기반으로, 제1 3D 공간 내에 아바타를 위치시키고, 제1 3D 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별할 수 있다. 아바타 컨텐츠들은 아타바의 모션, 동작, 애니메이션 행동, 또는 기능 중 적어도 하나를 포함할 수 있다. 프로세서(520)는 선별된 아바타 컨텐츠들을 기반으로 아바타 서비스 UI를 생성할 수 있다.
740 동작에서, 프로세서(520)는 활성화 영역의 면적 변화를 감지할 수 있다.
750 동작에서, 프로세서(520)는 활성화 영역의 변화에 기반하여 변경된 제2 활성화 영역의 면적을 트래킹할 수 있다.
일 실시예에 따르면, 프로세서(520)는 전자 장치(101)가 제1 상태에서 제2 상태로 변화하는 것에 실시간으로 반응하여 활성화 영역을 결정하고 활성화 영역의 면적을 실시간으로 트래킹할 수 있다. 프로세서(520)는 전자 장치(101)가 닫힌 상태에서 열린 상태 또는 열린 상태에서 닫힌 상태로 변경되는 것을 감지하고, 확장 정도 또는 축소 정도에 반응하여 활성화 영역을 결정할 수 있다.
760 동작에서, 프로세서(520)는 변경된 제2 활성화 영역의 면적에 대응하는 배경 이미지에서 공간 요소를 분석하여 가상의 제2 3D 공간을 도출할 수 있다.
프로세서(520)는 공간 요소(예: 바닥, 벽, 천장, 물체)를 인식하고, 각 공간 요소의 파라미터 값(예: 크기, 면적, 높이, 거리)을 분석할 수 있다. 예를 들어, 프로세서(520)는 잘라내기 영역 내에 바닥면의 면적을 기반으로 가상의 3D 공간을 위한 x, y, z축 값을 결정할 수 있다.
일 실시예에 따르면, 프로세서(520)는 실시간으로 반응하여 변경된 제2 활성화 영역의 크기 맞는 배경 이미지를 디스플레이에 제공할 수 있다. 프로세서(520)는 제2 활성화 영역의 크기에 맞는 배경 이미지를 획득하거나 랜더링하여 디스플레이에 제공할 수 있다.
다른 실시예에 따르면, 프로세서(520)는 변경된 제2 활성화 영역의 면적에 맞는 잘라내기 영역을 결정하고 잘라내기 영역 내의 공간 요소를 분석하여 가상의 제2 3D 공간을 도출할 수 있다.
765 동작에서, 프로세서(520)는 아바타 특성 정보를 기반으로 제2 3D 공간 내에서 표현될 아바타 컨텐츠 및 확장 서비스 기능을 선별하여 제2 활성화 영역에 대응하는 제2 아바타 서비스 UI를 생성할 수 있다. 제2 아바타 서비스 UI는 제2 3D 공간 내에서 표현되는 제2 자세의 아바타를 포함할 수 있다.
프로세서(520)는 실시간으로 반응하여 디폴트 아바타 또는 사용자에 의해 지정된 아타바의 특성 정보(예: 아바타 다리, 팔, 바디 및 얼굴의 사이즈, 아바타 모션, 아바타 애니메이션 활동, 아바타 자세)를 기반으로 제2 3D 공간 내에 아바타를 위치시키고, 제2 3D 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별할 수 있다. 프로세서(520)는 제1 활성화 영역에서 제2 활성화 영역에 변화한 것에 기반하여, 제2 활성화 영역에 맞는 확장 서비스 기능을 제공할 수 있다. 확장 서비스 기능은, 메인 아바타 이외에 다른 아바타를 추가로 표시할 수 있는 다른 아바타 표시 기능, 아타바의 복제 클론을 제공할 수 있는 클론 기능, 아바타와 상호 인터랙션을 통해 추가 기능을 실행할 수 있는 아바타 인터랙션 기능 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
770 동작에서, 프로세서(520)는 전자 장치(101)가 제1 상태에서 제2 상태에 변경된 것에 반응하여, 제1 아바타 서비스 UI를 제2 아바타 서비스 UI로 변환하여 디스플레이에 출력할 수 있다.
도 8은 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 8을 참조하면, 일 실시예에 따른 전자 장치(101)는 전자 장치(101)의 상태(예: 제1 상태 또는 제2 상태)에 기반하여 시각적 정보가 표시될 활성화 영역을 가변하고, 활성화 영역의 크기에 맞춰 아바타 서비스를 가변적으로 제공할 수 있다.
일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(120), 도 5의 프로세서(520))는, 전자 장치(101)가 닫힌 상태(예: 제1 상태)인 것에 기반하여 <8001>에 도시된 바와 같이, 디스플레이(810)의 제1 표시 영역(A1)을 활성화 영역으로 결정하고, 제1 자세의 아바타(820)를 제1 표시 영역(Al)의 디스플레이(810)를 통해 제공할 수 있다. 예를 들어, 전자 장치(101)의 프로세서는 제1 표시 영역(A1)의 크기에 대응하는 배경 이미지(예: 가상 이미지 또는 카메라 프리뷰 이미지의 일부)(830)로부터 가상의 제1 3D 공간(840)을 도출하고, 제1 3D 공간(840)을 벗어나지 않으면서 표현 가능한 제1 자세의 아바타(820)를 제공할 수 있다.
제1 자세의 아바타(820)는 제1 3D 공간의 활동 범위 내에서 표현 가능한 자세로 표현되어 있으나, 이에 한정하지 않는다. 예를 들어, 제1 자세는 활성화 영역(제1 표시 영역(A1)) 외부로 아바타의 다리와 팔이 벗어나지 않는 자세일 수 있다.
전자 장치(101)의 상태가 닫힌 상태(예: 제1상태)에서 열린 상태(예: 제2상태)로 전환된 것에 기반하여, 활성화 영역은 제1 표시 영역(A1)에서 디스플레이(810)의 전체 영역(제1 표시 영역(A1) 및 제2 표시 영역(A2))으로 확장될 수 있다.
전자 장치(101)의 프로세서는 제1 표시 영역(A1) 및 제2 표시 영역(A2)을 활성화 영역으로 결정된 것에 반응하여 제1 표시 영역(A1) 및 제2 표시 영역(A2)에서 표현 가능한 제2 자세의 아바타(825)로 변경하여 제1 표시 영역(A1) 및 제2 표시 영역(A2)의 디스플레이를 통해 제공할 수 있다.
예를 들어, 전자 장치(101)의 프로세서는 변경하여 제1 표시 영역(A1) 및 제2 표시 영역(A2)의 크기에 대응하는 배경 이미지(예: 가상 이미지 또는 카메라 프리뷰 이미지의 일부)(835)로부터 가상의 제2 3D 공간(845)을 도출하고, 제2 3D 공간(845)을 벗어나지 않으면서 표현 가능한 제2 자세의 아바타(820)로 전환하여 제공할 수 있다.
도 9는 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 9를 참조하면, 일 실시예에 따른 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120), 도 5의 프로세서(520)는 가상 현실 서비스를 지원할 수 있다.
전자 장치(101)의 프로세서는 가상 현실 서비스 실행 시 <9001>에 도시된 바와 같이 가상 현실 컨텐츠(910)를 랜더링할 수 있다. 예를 들어, 가상 현실 컨텐츠(910)는 360도 영상으로 구현될 수 있다. 예를 들어, 366도 영상은 360도 파노라마 촬영 기법 또는 스티칭(stitching) 편집 기법을 통해 제작될 수 있으나, 이에 한정하는 것은 아니다.
전자 장치가 닫힌 상태일 경우, 프로세서는 <9001>에 도시된 가상 현실 컨텐츠(910) 공간을 제1 활성화 영역(915)에 대응하는 섹션뷰(section view)로 잘라내기할 수 있다.
프로세서는 <9002>에 도시된 바와 같이, 섹션뷰(section view)로 잘라진 제1 조각 이미지(930) 내에서 아바타를 표현할 3차원의 제1 가상 공간(933)을 도출할 수 있다. 제1 가상 공간(933)은 제1 x,y, z 축 값을 가질 수 있다.
프로세서는 제1 조각 이미지(930)의 제1 가상 공간(933) 범위 내에서 표현되는 아바타 컨텐츠를 선별하여 <9003>에 도시된 바와 같이, 제1 자세의 아바타(940)를 표시할 수 있다.
프로세서는 전자 장치(101)가 닫힌 상태에서 열린 상태에 변화된 것에 기반하여, 활성화 영역이 제1 활성화 영역(915)에서 제2 활성화 영역(917)으로 변경된 것을 감지할 수 있다.
<9004>에 도시된 바와 같이, 가상 현실 컨텐츠(910) 공간을 제2 활성화 영역(917)에 대응하는 크기로 잘라내고, 잘라진 제2 조각 이미지 (931) 내에서 아바타를 표현할 3차원의 제2 가상 공간(935)을 도출할 수 있다. 제2 가상 공간(935)은x', y', z' 축 값을 가질 수 있다. 프로세서는 제2 조각 이미지(931)의 제2가상 공간(935)의 범위 내에서 표현되는 아바타 컨텐츠를 선별하여 제2 자세의 아바타(945)를 표시할 수 있다.
도 10은 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 10을 참조하면, 일 실시예에 따른 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120), 도 5의 프로세서(520)는 증강 현실 서비스 또는 혼합 현실 서비스를 지원할 수 있다.
프로세서는 <10001>에 도시된 바와 같이, 증강 현실 서비스 또는 혼합 현실 서비스 실행 시 카메라를 실행하여 현실 이미지(real image)를 획득할 수 있다. 예를 들어, <10001>에 도시된 현실 이미지는 카메라 이미지 센서의 화각에 의해 획득 가능한 범위 또는 사이즈 일 수 있다.
전자 장치가 닫힌 상태에서 증강 현실 서비스 실행 시 프로세서는 <10002>에 도시된 현실 이미지(1010)에서 제1 활성화 영역(1015)에 대응하는 섹션뷰(section view)로 잘라내기할 수 있다.
프로세서는 <10003>에 도시된 바와 같이, 제1 활성화 영역(1015)에 대응하는 크기로 잘려진 제1 조각 이미지(1020) 내에서 아바타를 표현할 3차원의 제1 가상 공간(1030)을 도출할 수 있다. 제1 가상 공간(1030)은 제1 x,y, z 축 값을 가질 수 있다.
프로세서는 제1 조각 이미지(1020)의 제1가상 공간(1030)의 범위 내에서 표현되는 아바타 컨텐츠를 선별하여 <10004>에 도시된 바와 같이, 제1 자세의 아바타(1040)를 표시할 수 있다.
프로세서는 전자 장치(101)가 닫힌 상태에서 열린 상태에 변화된 것에 기반하여, 활성화 영역이 제1 활성화 영역(1015)에서 제2 활성화 영역(1017)으로 변경된 것을 감지할 수 있다.
<10005>에 도시된 바와 같이, 현실 이미지(1010)에서 제2 활성화 영역(1017)에 대응하는 크기로 잘라낸 제 2 조각 이미지(1025)로부터 아바타를 표현할 3차원의 제2 가상 공간(1035)을 도출할 수 있다. 제2 가상 공간(1035)은x', y', z' 축 값을 가질 수 있다. 프로세서는 제2 조각 이미지(1025)의 제2가상 공간(1035)의 범위 내에서 표현되는 아바타 컨텐츠를 선별하여 제2 자세의 아바타(1045)를 표시할 수 있다.
이하의 도면들에서 도 10과 중복되는 구성들에 대해서는 생략되거나 간략히 기재하기로 한다.
도 11은 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 11을 참조하면, 일 실시예에 따른 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120), 도 5의 프로세서(520)는 전자 장치(101)가 닫힌 상태인 것에 기반하여, 제1 아바타 서비스 UI(1110)를 통해 <110001> 에 도시된 바와 같이, 제1 자세의 아바타(1120)를 제공할 수 있다. 제1 아바타 서비스 UI 화면(1110)는 제1 활성화 영역의 크기에 대응하여 선별된 아바타 컨텐츠들로 구성될 수 있다.
제1 아바타 서비스 UI 화면(1110)는 제1 자세의 아바타(1120), 아바타 추가 항목(1130), 아바타 리스트 항목들(1140,1141)을 포함할 수 있다. 제1 자세의 아바타(1120)는 제1 활성화 영역의 크기에 따라 선별된 아바타 컨텐츠일 수 있다. 사용자가 아바타 추가 항목(1130)을 선택(예: 터치)할 경우, 프로세서는 아바타를 새롭게 추가할 수 있는 메뉴로 진입할 수 있다. 아바타 리스트 항목들(1140,1141) 중 선택된 아바타는 메인 아바타로 지정될 수 있다.
사용자가 제1 상태에서 메인 아바타 예를 들어, 제1 자세의 아바타(1120)를 선택(예: 터치)할 경우, 프로세서는 제1 활성화 영역의 크기에서 표현 가능한 아바타 컨텐츠들로 구성된 모션 UI(1150)를 제공할 수 있다.
일 실시예에 따르면, 모션 UI(1150)는 전자 장치(101)가 닫힌 상태인 것에 반응하여, 제1 활성화 영역의 크기에서 표현 가능한 모션항목들(1151)로 구성될 수 있으나, 이에 한정하는 것은 아니다.
어떤 실시예에 따르면, 프로세서는 모션 UI(1150)에 제1 활성화 영역의 크기에서 표현 불가능한 모션 항목들이 포함되는 경우, 표현 가능한 모션 항목들(1151)과 시각적으로 다르게 표시(예: 빗줄 표시)할 수 있다. 또는 프로세서는 모션 UI(1150)에 제1 활성화 영역의 크기에서 표현 불가능한 모션 항목들이 포함되는 경우, 모션 항목들(1151) 중 일부가 표현 불가능하다는 것을 안내하는 정보 또는 디스플레이를 제1 표시 영역에서 제2 표시 영역의 적어도 일부까지 확장하도록 안내하는 정보를 제공할 수도 있다.
프로세서는 전자 장치(101)가 닫힌 상태에서 열린 상태로 변화하는 것에 실시간으로 반응하여, <11002>에 도시된 바와 같이, 제2 아바타 서비스 UI 화면(1115)으로 전환하여 제2 자세의 아바타(1125)를 제공할 수 있다.
제2 아바타 서비스 UI 화면(1115)은 변화된 활성화 영역의 크기에 대응하여 선별된 아바타 컨텐츠들로 구성될 수 있다. 제2 아바타 서비스 UI 화면(1115)은 제1 자세의 아바타(1120)에서 제2 자세의 아바타(1125)로 전환될 수 있으며, 변화된 활성화 영역의 크기에 대응하여 배경 이미지(또는 변화된 활성화 영역의 크기로 잘라진 조각 이미지)로 전환될 수 있다. 아바타 추가 항목(1130), 아바타 리스트 항목들(1140,1141)은 제1 아바타 서비스 UI 화면(1110)과 동일할 수 있다.
제2 아바타 서비스 UI 화면(1115)에서 사용자가 제2 자세의 아바타(1125)를 선택(예: 터치)할 경우, 프로세서는 변경된 활성화 영역의 크기에서 표현 가능한 아바타 컨텐츠들로 구성된 모션 UI(1150)를 제공할 수 있다. 이 경우, 모션 UI(1150)는 전자 장치(101)가 열린 상태인 것에 반응하여, 닫힌 상태에서 표현 불가능한 모션 항목들(1152)이 표현 가능한 상태로 활성화되도록 구성될 수 있다. 사용자는 열린 상태에서 표현 가능한 모션 항목(1152)을 선택(예: 터치)하여 변경된 활성화 영역에서 아바타를 다양하게 표현할 수 있다.
도 12는 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다.
도 12를 참조하면, 일 실시예에 따른 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120), 도 5의 프로세서(520)는 전자 장치(101)가 제1 상태에서 제2 상태로 전환된 것에 기반하여 다른 아바타 표시 기능을 제공할 수 있다.
전자 장치(101)가 닫힌 상태인 것에 기반하여, 프로세서는 <12001>에 도시된 바와 같이, 제1 활성화 영역을 통해 제1 자세의 아바타(1220)를 포함하는 제1 아바타 서비스 UI 화면(1210)을 제공할 수 있다.
프로세서는 전자 장치(101)가 닫힌 상태에서 열린 상태로 변화하는 것에 실시간으로 반응하여, <12002>에 도시된 바와 같이, 제2 아바타 서비스 UI 화면(1215)로 전환하여 제2 자세의 아바타(1225) 및 제2 아바타 서비스 UI 화면 (1215)을 제2 활성화 영역의 디스플레이에 제공할 수 있다. 다른 아바타 추가 표시 UI(1230)는 안내 정보, 아바타 리스트, 추가 취소 항목 및 추가 승인 항목을 포함할 수 있다. 사용자가 메인 아바타로 표시할 아바타를 선택(예: 터치)하는 경우, 프로세서는 제2 아바타 서비스 UI 화면(1215)에 다른 아바타(1240)을 제공할 수 있다.,
어떤 실시예에 따르면, 프로세서는 전자 장치(101)가 닫힌 상태에서 열린 상태로 변화하는 것에 실시간으로 반응하여, 디스플레이에 표시된 아바타(예: 메인 아바타)를 복제한 클론 아바타를 추가로 제공할 수도 있다. 이 경우, 클론 아바타의 수는 활성화 영역이 변화된 크기(또는 확장된 정도)에 따라 가변될 수 있다.
도 13 및 도 14는 일 실시예에 따른 플랙서블 전자 장치의 아바타 운용 화면의 예시를 나타낸다
도 13 및 도 14를 참조하면, 일 실시예에 따른 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120), 도 5의 프로세서(520)는 전자 장치(101)가 제1 상태에서 제2 상태로 전환된 것에 기반하여 아바타 인터렉션 기능을 제공할 수 있다.
일 실시예에 따른 전자 장치(101)가 도 13에 도시된 바와 같이, 업 롤러블 전자 장치인 경우, 닫힌 상태에서 디스플레이는 제1 표시 영역(A1)을 활성화 영역으로 결정할 수 있다. 전자 장치(101)가 닫힌 상태인 것에 기반하여, 프로세서는 <13001>에 도시된 바와 같이, 제1 표시 영역(A1)을 통해 제1 자세의 아바타(1320)를 포함하는 제1 아바타 서비스 UI 화면(1310)을 제공할 수 있다
프로세서는 전자 장치(101)가 닫힌 상태에서 위로 업 롤링된 열린 상태로 변화하는 것에 실시간으로 반응하여, 디스플레이는 제1 표시 영역(A1) 및 제2 표시 영역(A2)을 활성화 영역으로 결정할 수 있다. 전자 장치(101)가 열린 상태에서 닫힌 상태로 변환하는 것에 실시간으로 반응하여 <13002>에 도시된 바와 같이, 제2 아바타 서비스 UI 화면(1315)으로 전환하여 제2 자세의 아바타(1325)를 제1 표시 영역(A1) 및 제2 표시 영역(A2)을 통해 제공할 수 있다.
일 실시예에 따르면, 프로세서는 시각적 정보가 표시될 활성화 영역의 면적이 확장됨에 따라 아바타와 관련된 확장 서비스 기능 예를 들어, 아바타 사용자 인터렉션 기능 항목(1330)을 제공할 수 있다.
사용자가 아바타의 손을 움직여 아바타 사용자 인터렉션 기능 항목(1330)을 선택하는 경우, 프로세서는 아바타 사용자 인터렉션 기능 항목(1330)에 지정된 기능을 실행할 수 있다.
어떤 실시예에 따르면, 전자 장치(101)가 도 14에 도시된 바와 같이, 사이드 롤러블 전자 장치인 경우 전자 장치(101)가 닫힌 상태인 것에 기반하여, 프로세서는 <14001>에 도시된 바와 같이, 제1 자세의 아바타(1410)를 포함하는 제1 아바타 서비스 UI 화면(1410)을 제공할 수 있다. 프로세서는 전자 장치(101)가 닫힌 상태에서 사이드로 롤링된 열린 상태로 변화하는 것에 실시간으로 반응하여, 제2 아바타 서비스 UI 화면(1415)로 전환하여 제2 자세의 아바타(1425), 옷장 인터렉션 항목(1430) 및 화장 인터렉션 항목(1440)을 제공할 수 있다.
예를 들어, 사용자가 아바타의 손을 움직여 옷장 인터렉션 항목(1430)을 선택하거나, 옷장 인터렉션 항목(1430)으로 이동한 경우, 프로세서는 아바타 옷장 기능을 실행하여 아바타의 옷을 변경할 수 있는 메뉴로 진입할 수 있다. 다른 예를 들어, 사용자가 아바타의 손을 움직여 옷장 인터렉션 항목(1430)을 선택하거나 화장 인터렉션 항목(1440)으로 이동한 경우, 프로세서는 아바타 화장 기능을 실행하여 아바타의 얼굴을 변경할 수 있는 메뉴로 진입할 수 있다.
다양한 실시예에 따른 플랙서블 전자 장치(예: 도 1의 전자 장치(101), 도 5의 전자 장치(101))의 아바타 운용 방법은, 제1 하우징에 대해 제2 하우징이 제1 방향으로 이동 시 제1 표시 영역을 가지며, 상기 제2 하우징이 상기 제1하우징으로부터 제2 방향으로 이동 시 상기 제1 표시 영역 및 제2 표시 영역으로 확장되는 디스플레이(예: 도 1의 디스플레이 모듈(160), 도 5의 디스플레이(510)) 통해 아바타 서비스를 실행하는 요청을 수신하는 동작, 상기 디스플레이에서 시각적 정보가 표시될 활성화 영역이 상기 제1 표시 영역인 경우, 상기 아바타 서비스 실행 요청에 응답하여 상기 제1 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 아바타를 표현할 가상의 제1 공간을 도출하는 동작, 아바타의 특성 정보를 기반으로 상기 제1공간 내에서 표현 가능한 제1 자세의 아바타를 상기 제1 표시 영역인 활성화 영역에 표시하는 동작, 상기 디스플레이의 활성화 영역이 제1 표시 영역에서 제2 표시 영역의 적어도 일부까지 확장된 것에 기반하여, 상기 제1 및 제2 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 가상의 제2 공간을 도출하는 동작 및 상기 아바타의 특성 정보를 기반으로 상기 제2 공간 내에서 표현 가능한 제2 자세의 아바타 및 확장 서비스 기능 중 적어도 하나를 상기 제1 표시 영역 및 제2 표시 영역에 대응하는 활성화 영역에 표시하는 동작을 포함하는 방법을 포함할 수 있다.
다양한 실시예에 따르면 상기 제 1 공간을 도출하는 동작은, 상기 배경 이미지에서 제1 표시 영역에 대응하는 크기로 제1 잘라내기 영역을 결정하고, 상기 제1 잘라내기 영역 내의 공간 요소를 분석하여 도출하고, 상기 제2 공간을 도출하는 동작은, 상기 배경 이미지에서 제1 표시 영역 및 제2 표시 영역에 대응하는 크기로 제2 잘라내기 영역을 결정하고, 상기 제2 잘라내기 영역 내의 공간 요소를 분석하여 도출할 수 있다.
다양한 실시예에 따르면 상기 배경 이미지는 카메라를 통해 획득한 현실 이미지 또는 랜더링된 가상 현실 공간 이미지를 포함함할 수 있다.
다양한 실시예에 따르면 상기 공간 요소는 바닥, 벽, 천장, 물체 중 적어도 하나를 포함하고, 상기 제1 공간 또는 제2 공간을 도출하는 동작은, 상기 공간 요소의 크기 면적, 높이, 거리 중 적어도 하나를 분석하여 배경 이미지에서 상기 아바타가 위치할 바닥 면적을 계산하고, 상기 상기 바닥 면적을 기준으로 제1 공간 또는 제2 공간의 x축, y축 및 z축 값을 결정하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면 상기 아바타 특성 정보는, 아바타 다리, 팔, 바디 및 얼굴의 사이즈, 아바타 모션, 아바타 애니메이션 활동 또는 아바타 자세 중 적어도 하나에 대한 정보를 포함할 수 있다.
다양한 실시예에 따르면 상기 디스플레이의 활성화 영역이 제1 표시 영역인 것에 기반하여, 상기 제1 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 제1 아바타 서비스 사용자 인터페이스를 구성하는 동작 및 상기 디스플레이의 활성화 영역이 상기 제1 표시 영역에서 상기 제2 표시 영역의 적어도 일부까지 확장된 것에 기반하여, 상기 제2 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 제2 아바타 서비스 사용자 인터페이스를 구성하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면 상기 제2 아바타 서비스 사용자 인터페이스는 확장된 활성화 영역에 대응하는 확장 서비스 기능을 더 포함하고, 상기 확장 서비스 기능은, 메인 아바타 이외에 다른 아바타를 추가로 표시할 수 있는 다른 아바타 표시 기능, 아타바의 복제 클론을 제공할 수 있는 클론 기능, 아바타와 상호 인터랙션을 통해 추가 기능을 실행할 수 있는 아바타 인터랙션 기능 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면 상기 제1 아바타 서비스 사용자 인터페이스는, 상기 제1 공간 내에서 표현 가능한 모션 항목들을 포함하고, 상기 제2 아바타 서비스 사용자 인터페이스는 상기 제2 공간 내에서 표현 가능한 모션 항목들을 포함하고, 상기 제1 아바타 서비스 사용자 인터페이스를 구성하는 동작은, 상기 제1 공간 내에서 표현 불가능한 모션 항목들이 포함되는 경우, 상기 제1 공간 내에서 표현 가능한 모션 항목들과 상기 표현 불가능한 모션 항목들을 시각적으로 다르게 표시하도록 구성할 수 있다.
상기 제1 아바타 서비스 사용자 인터페이스를 구성하는 동작은, 상기 제1 아바타 서비스 사용자 인터페이스에 상기 제1 공간 내에서 표현 불가능한 모션 항목들이 포함되는 경우, 모션 항목들 중 일부가 표현 불가능하다는 것을 안내하는 정보 또는 상기 디스플레이를 제1 표시 영역에서 제2 표시 영역의 적어도 일부까지 확장하도록 안내하는 정보를 더 포함하여 구성할 수 있다.
문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 플랙서블 전자 장치에 있어서,
    제1 하우징;
    상기 제1 하우징에 대하여 제1 방향 또는 제2 방향으로 이동이 가능하도록 배치되는 제2 하우징;
    상기 제2 하우징을 상기 제1 하우징에 대하여 이동시키도록 구동되는 구동 장치;
    상기 제2 하우징이 상기 제1 하우징에 대해 제1 방향으로 이동 시 제1 표시 영역을 가지며, 상기 구동 장치에 의해 상기 제2 하우징이 상기 제1 하우징으로부터 제2 방향으로 이동 시 상기 제1 표시 영역 및 제2 표시 영역으로 확장되는 디스플레이; 및
    상기 디스플레이 및 상기 구동 장치와 작동적으로 연결되는 프로세서;를 포함하고,
    상기 프로세서는,
    아바타 서비스 실행 시에, 상기 디스플레이에서 시각적 정보가 표시되는 영역이 상기 제1 표시 영역을 갖는 경우, 상기 제1 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 아바타를 표현할 가상의 제1 공간을 도출하고, 아바타의 특성 정보를 기반으로 상기 제1 공간 내에서 표현 가능한 제1 자세의 아바타를 상기 제1 표시 영역에 제공하고,
    상기 디스플레이가 상기 제1 표시 영역에서 상기 제2 표시 영역의 적어도 일부까지 확장된 것으로 감지되는 경우, 상기 제1 표시 영역 및 상기 제2 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 가상의 제2 공간을 도출하고,
    상기 아바타의 특성 정보를 기반으로 상기 제2 공간 내에서 표현 가능한 제2 자세의 아바타 및 확장 서비스 기능 중 적어도 하나를 상기 제1 표시 영역 및 상기 제2 표시 영역에 제공하도록 설정된 플랙서블 전자 장치.
  2. 제1항에 있어서,
    상기 배경 이미지는 카메라를 통해 획득한 현실 이미지 또는 랜더링된 가상 현실 공간 이미지 중 적어도 하나를 포함하고,
    상기 프로세서는,
    상기 배경 이미지에서 상기 제1 표시 영역에 대응하는 크기로 크롭된 제1 잘라내기 영역의 공간 요소를 통해 상기 제 1 공간을 도출하고,
    상기 배경 이미지에서 상기 제1 표시 영역 및 상기 제2 표시 영역에 대응하는 크기로 크롭된 제2 잘라내기 영역의 공간 요소를 통해 상기 제2 공간을 도출 하도록 더 설정된 플랙서블 전자 장치.
  3. 제1항에 있어서,
    상기 아바타 특성 정보는, 아바타 다리, 팔, 바디 및 얼굴의 사이즈, 아바타 모션, 아바타 애니메이션 활동 또는 아바타 자세 중 적어도 하나에 대한 정보를 포함하고,
    상기 공간 요소는 바닥, 벽, 천장, 물체 중 적어도 하나를 포함하며,
    상기 프로세서는
    상기 공간 요소의 크기, 면적, 높이, 거리 중 적어도 하나를 분석하여 배경 이미지에서 상기 아바타가 위치할 바닥 면적을 계산하고,
    상기 바닥 면적을 기준으로 제1 공간 또는 제2 공간의 x축, y축 및 z축 값을 결정하도록 설정된 플랙서블 전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 디스플레이가 제1 표시 영역을 갖는 것에 기반하여, 상기 제1 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 제1 아바타 서비스 사용자 인터페이스를 구성하고, 상기 제1 아바타 서비스 사용자 인터페이스에 상기 제1 자세의 아바타를 제공하고,
    상기 디스플레이가 상기 제1 표시 영역에서 상기 제2 표시 영역의 적어도 일부까지 확장된 것에 기반하여, 상기 제2 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 제2 아바타 서비스 사용자 인터페이스를 구성하고, 상기 제2 아바타 서비스 사용자 인터페이스에 상기 제2 자세의 아바타를 제공하도록 더 설정된 플랙서블 전자 장치.
  5. 제4항에 있어서,
    상기 프로세서는,
    상기 제2 아바타 서비스 사용자 인터페이스는 확장 서비스 기능을 포함하고,
    상기 확장 서비스 기능은,
    메인 아바타 이외에 다른 아바타를 추가로 표시할 수 있는 다른 아바타 표시 기능, 메인 아타바의 복제 클론을 제공할 수 있는 클론 기능, 아바타와 상호 인터렉션을 통해 추가 기능을 실행할 수 있는 아바타 인터렉션 기능 중 적어도 하나를 포함하는 플랙서블 전자 장치.
  6. 제4항에 있어서,
    상기 제1 아바타 서비스 사용자 인터페이스는, 상기 제1 공간 내에서 표현 가능한 모션 항목들을 포함하고, 상기 제2 아바타 서비스 사용자 인터페이스는 제2 공간 내에서 표현 가능한 모션 항목들을 포함하고,
    상기 프로세서는,
    상기 제1 아바타 서비스 사용자 인터페이스에서 상기 제1 공간 내에서 표현 불가능한 모션 항목들이 포함되는 경우, 상기 제1 공간 내에서 표현 가능한 모션 항목들과 상기 표현 불가능한 모션 항목들을 시각적으로 다르게 처리하도록 더 설정된 플랙서블 전자 장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 제1 아바타 서비스 사용자 인터페이스에서 상기 제1 공간 내에서 표현 불가능한 모션 항목들이 포함되는 경우, 모션 항목들 중 일부가 표현 불가능하다는 것을 안내하는 정보 또는 상기 디스플레이를 제1 표시 영역에서 제2 표시 영역의 적어도 일부까지 확장하도록 안내하는 정보를 제공하도록 더 설정된 플랙서블 전자 장치.
  8. 플랙서블 전자 장치의 아바타 운용 방법에 있어서,
    제1 하우징에 대해 제2 하우징이 제1 방향으로 이동 시 제1 표시 영역을 가지며, 상기 제2 하우징이 상기 제1하우징으로부터 제2 방향으로 이동 시 상기 제1 표시 영역 및 제2 표시 영역으로 확장되는 디스플레이를 통해 아바타 서비스를 실행하는 요청을 수신하는 동작;
    상기 디스플레이에서 시각적 정보가 표시되는 영역이 상기 제1 표시 영역을 갖는 경우, 상기 아바타 서비스 실행 요청에 응답하여 상기 제1 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 아바타를 표현할 가상의 제1 공간을 도출하는 동작;
    아바타의 특성 정보를 기반으로 상기 제1 공간 내에서 표현 가능한 제1 자세의 아바타를 상기 제1 표시 영역에 에 표시하는 동작;
    상기 디스플레이가 상기 제1 표시 영역에서 상기 제2 표시 영역의 적어도 일부까지 확장된 것으로 감지되는 경우, 상기 제1 표시 영역 및 상기 제2 표시 영역에 대응하는 배경 이미지에서 공간 요소를 분석하여 가상의 제2 공간을 도출하는 동작; 및
    상기 아바타의 특성 정보를 기반으로 상기 제2 공간 내에서 표현 가능한 제2 자세의 아바타 및 확장 서비스 기능 중 적어도 하나를 상기 제1 표시 영역 및 상기 제2 표시 영역에 표시하는 동작을 포함하는 방법.
  9. 제8항에 있어서,
    상기 제 1 공간을 도출하는 동작은,
    상기 배경 이미지에서 제1 표시 영역에 대응하는 크기로 크롭된 제1 잘라내기 영역 내의 공간 요소를 분석하여 도출하고,
    상기 제2 공간을 도출하는 동작은,
    상기 배경 이미지에서 제1 표시 영역 및 제2 표시 영역에 대응하는 크기로 크롭된 제2 잘라내기 영역 내의 공간 요소를 분석하여 도출하는 방법.
  10. 제8항에 있어서,
    상기 배경 이미지는 카메라를 통해 획득한 현실 이미지 또는 랜더링된 가상 현실 공간 이미지를 포함하는 방법.
  11. 제8항에 있어서,
    상기 아바타 특성 정보는, 아바타 다리, 팔, 바디 및 얼굴의 사이즈, 아바타 모션, 아바타 애니메이션 활동 또는 아바타 자세 중 적어도 하나에 대한 정보를 포함하고
    상기 공간 요소는 바닥, 벽, 천장, 물체 중 적어도 하나를 포함하며,
    상기 제1 공간 또는 제2 공간을 도출하는 동작은,
    상기 공간 요소의 크기 면적, 높이, 거리 중 적어도 하나를 분석하여 배경 이미지에서 상기 아바타가 위치할 바닥 면적을 계산하고, 상기 상기 바닥 면적을 기준으로 제1 공간 또는 제2 공간의 x축, y축 및 z축 값을 결정하는 동작을 더 포함하는 방법.
  12. 제8항에 있어서,
    상기 디스플레이가 상기 제1 표시 영역을 인 것에 기반하여, 상기 제1 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 제1 아바타 서비스 사용자 인터페이스를 구성하는 동작; 및
    상기 디스플레이가 상기 제1 표시 영역에서 상기 제2 표시 영역의 적어도 일부까지 확장된 것에 기반하여, 상기 제2 공간 내에서 표현 가능한 아바타 컨텐츠들을 선별하여 제2 아바타 서비스 사용자 인터페이스를 구성하는 동작을 더 포함하는 방법.
  13. 제12항에 있어서,
    상기 제2 아바타 서비스 사용자 인터페이스는 확장 서비스 기능을 더 포함하고,
    상기 확장 서비스 기능은, 메인 아바타 이외에 다른 아바타를 추가로 표시할 수 있는 다른 아바타 표시 기능, 아타바의 복제 클론을 제공할 수 있는 클론 기능, 아바타와 상호 인터랙션을 통해 추가 기능을 실행할 수 있는 아바타 인터랙션 기능 중 적어도 하나를 포함하는 방법.
  14. 제12항에 있어서,
    상기 제1 아바타 서비스 사용자 인터페이스는, 상기 제1 공간 내에서 표현 가능한 모션 항목들을 포함하고, 상기 제2 아바타 서비스 사용자 인터페이스는 상기 제2 공간 내에서 표현 가능한 모션 항목들을 포함하고,
    상기 제1 아바타 서비스 사용자 인터페이스를 구성하는 동작은,
    상기 제1 공간 내에서 표현 불가능한 모션 항목들이 포함되는 경우, 상기 제1 공간 내에서 표현 가능한 모션 항목들과 상기 표현 불가능한 모션 항목들을 시각적으로 다르게 표시하도록 구성하는 방법.
  15. 제14항에 있어서,
    상기 제1 아바타 서비스 사용자 인터페이스를 구성하는 동작은,
    상기 제1 아바타 서비스 사용자 인터페이스에 상기 제1 공간 내에서 표현 불가능한 모션 항목들이 포함되는 경우, 모션 항목들 중 일부가 표현 불가능하다는 것을 안내하는 정보 또는 상기 디스플레이를 제1 표시 영역에서 제2 표시 영역의 적어도 일부까지 확장하도록 안내하는 정보를 더 포함하여 구성하는 방법.
PCT/KR2021/018272 2020-12-03 2021-12-03 플랙서블 전자 장치 및 이의 아바타 서비스 운용 방법 WO2022119398A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP21901086.5A EP4224281A4 (en) 2020-12-03 2021-12-03 FLEXIBLE ELECTRONIC DEVICE AND ASSOCIATED AVATAR SERVICE OPERATION METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200167459A KR20220078192A (ko) 2020-12-03 2020-12-03 플랙서블 전자 장치 및 이의 아바타 서비스 운용 방법
KR10-2020-0167459 2020-12-03

Publications (1)

Publication Number Publication Date
WO2022119398A1 true WO2022119398A1 (ko) 2022-06-09

Family

ID=81854284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/018272 WO2022119398A1 (ko) 2020-12-03 2021-12-03 플랙서블 전자 장치 및 이의 아바타 서비스 운용 방법

Country Status (3)

Country Link
EP (1) EP4224281A4 (ko)
KR (1) KR20220078192A (ko)
WO (1) WO2022119398A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240031770A (ko) * 2022-09-01 2024-03-08 삼성전자주식회사 비네팅 기능을 수행하는 방법 및 이를 지원하는 웨어러블 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070058106A (ko) * 2005-12-01 2007-06-07 엘지전자 주식회사 이동단말기의 에이전트 표시방법, 및 에이전트를 구비하는이동단말기
KR20170076471A (ko) * 2015-12-24 2017-07-04 삼성전자주식회사 변형 가능한 디스플레이 장치 및 이를 이용한 영상 표시 방법
JP2018055418A (ja) * 2016-09-29 2018-04-05 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
KR20190141518A (ko) * 2018-06-14 2019-12-24 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
KR20200101206A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102389189B1 (ko) * 2017-11-29 2022-04-22 삼성전자주식회사 확장가능한 디스플레이 영역을 갖는 플렉시블 디스플레이를 구비한 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070058106A (ko) * 2005-12-01 2007-06-07 엘지전자 주식회사 이동단말기의 에이전트 표시방법, 및 에이전트를 구비하는이동단말기
KR20170076471A (ko) * 2015-12-24 2017-07-04 삼성전자주식회사 변형 가능한 디스플레이 장치 및 이를 이용한 영상 표시 방법
JP2018055418A (ja) * 2016-09-29 2018-04-05 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
KR20190141518A (ko) * 2018-06-14 2019-12-24 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
KR20200101206A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4224281A4 *

Also Published As

Publication number Publication date
EP4224281A4 (en) 2024-04-03
KR20220078192A (ko) 2022-06-10
EP4224281A1 (en) 2023-08-09

Similar Documents

Publication Publication Date Title
WO2022080630A1 (en) Electronic device including friction reducing structure
WO2022103174A1 (ko) 표시 영역이 가변되는 디스플레이를 포함하는 전자 장치 및 앱 아이콘을 이용하여 화면 비율을 가변적으로 운용하는 방법
WO2022085961A1 (ko) 컨텐츠를 출력하는 전자 장치 및 전자 장치의 동작 방법
WO2022114848A1 (ko) 플렉서블 전자 장치 및 카메라 뷰 화면 운용 방법
WO2022086068A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022119398A1 (ko) 플랙서블 전자 장치 및 이의 아바타 서비스 운용 방법
WO2022108379A1 (ko) 확장 가능한 디스플레이를 포함하는 전자 장치 및 컨텐츠 제공 방법
WO2022103189A1 (ko) 플렉서블 전자 장치 및 이의 사운드 출력을 조정하는 방법
WO2022098169A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2023191303A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2024049270A1 (ko) 슬라이더블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2022103040A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2022119137A1 (ko) 확장 가능한 디스플레이를 포함하는 전자 장치 및 전자 장치의 컨텐츠 제공 방법
WO2022108303A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그 동작 방법
WO2022119215A1 (ko) 플렉서블 디스플레이의 확장 및/또는 축소에 따라서 화면의 표시를 제어하는 전자 장치 및 그 제어 방법
WO2022103084A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이를 이용하는 방법
WO2024063232A1 (ko) 배경 이미지를 재구성하기 위한 전자 장치
WO2022119118A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 화면 제어 방법
WO2022108239A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
WO2022102941A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 화면 제어 방법
WO2022119115A1 (ko) 마이크를 포함하는 전자 장치 및 그 제어 방법
WO2023204408A1 (ko) 듀얼 진동 모터를 포함하는 전자 장치 및 그 방법
WO2022119214A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022097990A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2023182689A1 (ko) 화면을 제공하는 방법 및 이를 지원하는 플렉서블 디스플레이를 포함하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21901086

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021901086

Country of ref document: EP

Effective date: 20230503

NENP Non-entry into the national phase

Ref country code: DE