WO2021187630A1 - 전자 장치 - Google Patents

전자 장치 Download PDF

Info

Publication number
WO2021187630A1
WO2021187630A1 PCT/KR2020/003615 KR2020003615W WO2021187630A1 WO 2021187630 A1 WO2021187630 A1 WO 2021187630A1 KR 2020003615 W KR2020003615 W KR 2020003615W WO 2021187630 A1 WO2021187630 A1 WO 2021187630A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
area
region
sensor
controller
Prior art date
Application number
PCT/KR2020/003615
Other languages
English (en)
French (fr)
Inventor
심홍조
김현우
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2020/003615 priority Critical patent/WO2021187630A1/ko
Priority to US16/880,888 priority patent/US11189251B2/en
Priority to EP20180017.4A priority patent/EP3882756B1/en
Publication of WO2021187630A1 publication Critical patent/WO2021187630A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/16Measuring force or stress, in general using properties of piezoelectric devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L1/00Measuring force or stress, in general
    • G01L1/20Measuring force or stress, in general by measuring variations in ohmic resistance of solid materials or of electrically-conductive fluids; by making use of electrokinetic cells, i.e. liquid-containing cells wherein an electrical potential is produced or varied upon the application of stress
    • G01L1/22Measuring force or stress, in general by measuring variations in ohmic resistance of solid materials or of electrically-conductive fluids; by making use of electrokinetic cells, i.e. liquid-containing cells wherein an electrical potential is produced or varied upon the application of stress using resistance strain gauges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04144Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using an array of force sensing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0235Slidable or telescopic telephones, i.e. with a relative translation movement of the body parts; Telephones using a combination of translation and other relative motions of the body parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72466User interfaces specially adapted for cordless or mobile telephones with selection means, e.g. keys, having functions defined by the mode or the status of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • G09G2340/0471Vertical positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • G09G2340/0478Horizontal positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
    • H04M1/236Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof including keys on side or rear faces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions

Definitions

  • Various embodiments of the present disclosure relate to electronic devices.
  • a display provided in an electronic device may have a rectangular (or bar) shape having different horizontal and vertical lengths.
  • the appearance of an electronic device equipped with such a display also has a rectangular shape corresponding to the shape of the display.
  • An electronic device of a method in which at least a portion of a display can be folded or rolled when carrying, and the folded or rolled display can be unfolded and used only when necessary is being studied.
  • the electronic device needs to provide suitable usability in consideration of user convenience. For example, a rectangular electronic device selectively rotates and provides a direction of an output image of a display according to a change in posture of the electronic device, such as whether the user holds the electronic device in a vertical direction or a horizontal direction, etc. It may be required to output an image in a direction that matches the expected field of view.
  • the input unit disposed on one side of the frame of the electronic device is fixed at a fixed position, when the user holds the electronic device in the vertical direction, even if it is easy to input a signal through the input unit, the input unit is fixed in the horizontal direction. When gripped, it may be difficult to touch or press the input unit.
  • An electronic device may include a display for outputting an image through a front surface of the electronic device; an input unit disposed to face a side surface of the electronic device and including a first area and a second area; and a controller, wherein the controller is configured to determine one of the first region or the second region as an activation region based on a posture of the electronic device, and to receive a user input through the activation region.
  • the electronic device further includes at least one sensor, and the controller obtains information about the posture of the electronic device using the at least one sensor, and based on the obtained information, the The electronic device may be determined in either a landscape mode or a portrait mode.
  • the controller may determine an image output orientation of the display and an active region of the input unit in response to the determined mode.
  • the controller may determine the first area as the active area when the electronic device is in the horizontal mode, and determine the second area as the active area when the electronic device is in the vertical mode .
  • the controller may inactivate the second region when the first region is determined as the active region, and deactivate the first region when the second region is determined as the active region.
  • An electronic device may include: a frame including a first frame and a second frame disposed to be slidably movable with respect to the first frame; a flexible display supported by the frame, wherein an area of a first image output region for outputting an image through a front surface of the electronic device is variable in response to a relative movement between the first frame and the second frame; an input unit including a first area and a second area; at least one sensor; and a controller, wherein the controller acquires information about at least one of the posture of the electronic device or the area of the first image output region using the at least one sensor, and based on the acquired information Either one of the first area and the second area may be determined as an active area of the input unit, and a user input may be received through the active area.
  • the controller determines the first region as the active region, the electronic device is in the horizontal mode, and an area of the first image output region is greater than or equal to a specified size
  • the second region may be determined as the active region
  • the first region may be determined as the active region
  • the controller may inactivate the second region when the first region is determined as the active region, and deactivate the first region when the second region is determined as the active region.
  • the first image output area may be substantially rectangular when expanded.
  • first area and the second area are disposed to face a first side of the first frame, and the second area is based on a second side of the second frame that is perpendicular to the first side. It may be located closer than the first area.
  • the controller determines that the electronic device is in the horizontal mode, and the second side If it is determined that the electronic device is positioned above the electronic device, the electronic device may be determined to be in a vertical mode.
  • the input unit may include at least one of a pressure sensor (eg, a strain gauge) and an ultrasonic sensor (eg, a piezo sensor).
  • a pressure sensor eg, a strain gauge
  • an ultrasonic sensor eg, a piezo sensor
  • the input unit may include a strain gauge
  • the strain gauge may include the first region, the second region, and an inactive region between the first region and the second region.
  • the input unit may include a plurality of sensor sets disposed to correspond to the first area and the second area, and the sensor set may include a strain gauge and a plurality of piezoelectric devices disposed with the strain gauge interposed therebetween. It may include sensors.
  • first region and the second region may be spaced apart from each other on the same plane.
  • the input unit may include a first area, a second area, a third area, and a fourth area which are sequentially spaced apart from each other by a predetermined interval on the same plane, and the controller, based on the obtained information,
  • the first region and the third region may be determined as active regions, or the second region and the fourth region may be determined as active regions.
  • the input unit may include at least one of a pressure sensor and an ultrasonic sensor, and at least one of the pressure sensor or the ultrasonic sensor may be mounted on a printed circuit board electrically connected to the controller.
  • the at least one sensor may include at least one of a gyro sensor and an optical sensor.
  • the electronic device may selectively expand or reduce the image output area of the front or rear side by using the flexible display. Accordingly, it is possible to provide an electronic device that is easy to carry and can selectively utilize a large-area display.
  • the electronic device may improve user convenience by providing an input unit that facilitates user input even when the shape of the electronic device is changed or the posture of the electronic device is changed.
  • FIG. 2A is a front view of an electronic device according to an embodiment of the present disclosure.
  • FIG. 2B is a perspective view of an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating a state in which an electronic device is held in a vertical mode according to an embodiment of the present disclosure
  • 5A to 5C are front views of an electronic device according to an embodiment of the present disclosure.
  • 6A and 6B are diagrams illustrating a state in which an electronic device is held in a vertical mode according to an embodiment of the present disclosure
  • FIGS. 7A and 7 are diagrams illustrating a state in which an electronic device is held in a horizontal mode according to an embodiment of the present disclosure
  • FIGS. 8A to 8C are diagrams schematically illustrating an input unit according to an embodiment of the present disclosure.
  • 9A and 9B are diagrams schematically illustrating an input unit according to an embodiment of the present disclosure.
  • FIG. 11A and 11B are schematic side cross-sectional views of an electronic device according to an embodiment of the present disclosure.
  • Electronic devices include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, personal digital assistants (PDA), a portable multimedia player (PMP), a navigation system, and a slate PC. ), tablet PCs, ultrabooks, wearable devices (e.g., smartwatch, smart glass, head mounted display), digital TV, It may include at least one of a desktop computer or digital signage.
  • FIG. 1 is a configuration block diagram of an electronic device according to various embodiments of the present disclosure
  • an electronic device 100 includes a wireless communication unit 110 , an input unit 120 , a sensing unit 140 , an output unit 150 , an interface unit 160 , and a memory 170 .
  • a control unit 180 and a power supply unit 190 may include at least one.
  • the electronic device 100 may include other components in addition to the components illustrated in FIG. 1 , and may include only some of the components illustrated in FIG. 1 .
  • the wireless communication unit 110 is connected between the electronic device 100 and the wireless communication system, between the electronic device 100 and another electronic device (not shown) (eg, the electronic device 100 ), or with the electronic device 100 . It may include one or more modules that enable wireless communication between external servers.
  • the wireless communication unit 110 may include one or more modules for connecting the electronic device 100 to one or more networks.
  • the wireless communication unit 110 includes at least one of a broadcast reception module 111 , a mobile communication module 112 , a wireless Internet module 113 , a short-range communication module 114 , and a location information module 115 . can do.
  • the input unit 120 may include an image input unit (eg, camera 121) for receiving an image signal input, an audio input unit (eg, a microphone 122) for receiving an audio signal input, or other user input. It may include at least one of the user input unit 123 for receiving.
  • the user input unit 123 may receive a user touch input through a touch sensor (or a touch panel) provided in the display 151 or may receive a user input through a physical key.
  • Information eg, voice data, image data, etc.
  • collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the electronic device 100 , surrounding environment information surrounding the electronic device 100 , and user information.
  • the sensing unit 140 includes a proximity sensor 141 , an illumination sensor 142 , a temperature sensor 143 , a gyroscope sensor 144 , and an acceleration sensor. sensor) 145 .
  • the sensing unit 140 includes a touch sensor, a fingerprint recognition sensor, a magnetic sensor, a gravity sensor (G-sensor), a motion sensor, an RGB sensor, and an infrared sensor.
  • IR sensor infrared sensor
  • ultrasonic sensor ultrasonic sensor
  • optical sensor battery gauge
  • environmental sensor e.g., barometer, hygrometer, thermometer, radiation detection sensor, thermal sensor, gas detection sensor, etc.
  • a chemical sensor eg, electronic nose, healthcare sensor, biometric sensor, etc.
  • the electronic device 100 disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 150 may output information related to sight, hearing, or touch.
  • the output unit 150 may include at least one of a display 151 , a sound output module 152 , a haptic module 153 , and an optical output unit 154 .
  • the display 151 may form a layered structure with the touch sensor or be integrally formed to implement a touch screen that simultaneously provides a touch input function and a screen output function.
  • the touch screen not only functions as the user input unit 123 providing an input interface between the electronic device 100 and the user, but also serves as the output unit 150 providing an output interface between the electronic device 100 and the user. can function.
  • the electronic device 100 is a display 151 for outputting the image information, and is a flexible type that can be rolled, bent, or folded. It may include a display.
  • the flexible display may be formed on a thin and flexible substrate so that it can be bent, bent, folded, twisted, or rolled like paper while having the screen output characteristics of a conventional flat panel display.
  • the flexible display may be combined with a touch sensor to implement a flexible touch screen.
  • the controller 180 may sense a touch input through the flexible touch screen of the flexible display and perform various functions corresponding to the touch input.
  • the electronic device 100 may further include a deformation detecting means (not shown) capable of detecting a change in the shape of the flexible display.
  • the electronic device 100 may detect a change in the shape of the flexible display through at least one configuration of the sensing unit 140 .
  • the controller 180 changes and outputs information displayed on the flexible display based on a change in the shape of the flexible display sensed through at least one of the deformation detecting means (not shown) or the sensing unit 140 , or , it is possible to generate a predetermined control signal.
  • changing the shape of the flexible display may include changing the area of the flexible display area that is viewed through the first surface (eg, the front surface) of the electronic device 100 and outputs an image to the outside.
  • the area of the image output area of the flexible display facing the first surface of the electronic device 100 may be expanded or reduced as a partial area is rolled, folded, or bent.
  • the above-described shape change of the flexible display may occur based on an external force by a user, but is not limited thereto.
  • the electronic device 100 may automatically change the shape of the flexible display based on an input through the input unit 120 or the sensing unit 140 or a specific application command, and the electronic device 100 may It may further include a driving unit for changing the shape of the display.
  • the electronic device 100 may expand or reduce the area of the flexible display viewed through the first surface by moving the position of the area where the flexible display is rolled, folded, or bent according to the driving of the driver. have.
  • the driving unit may be driven under the control of the controller 180 .
  • the sound output module 152 may output audio data received from the wireless communication unit 110 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, or stored in advance in the memory 170 to the outside. have.
  • the sound output module 152 may output a sound signal related to a function (eg, a call signal reception sound, a message reception sound, etc.) performed by the electronic device 100 .
  • the sound output module 152 may include at least one of a receiver, a speaker, and a buzzer.
  • the haptic module 153 may generate various tactile effects that the user can feel.
  • a representative example of the tactile effect generated by the haptic module 153 may include vibration.
  • the intensity and pattern of vibration generated through the haptic module 153 may be determined by a user's selection or setting of the controller 180 .
  • the haptic module 153 may synthesize and output different vibrations or output them sequentially.
  • the light output unit 154 may output a signal for notifying the occurrence of an event by using the light of the light source of the electronic device 100 .
  • the event generated in the electronic device 100 may include at least one of message reception, call signal reception, missed call, alarm, schedule notification, email reception, and information reception through an application.
  • the interface unit 160 may serve as a passage with various types of external devices connected to the electronic device 100 .
  • the interface unit 160 may include a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a connecting port, an audio I/O (Input/Output) port, a video I/O (Input/Output) port, and an earphone port.
  • the electronic device 100 may perform a specific function or control related to the connected external device.
  • the memory 170 may store data related to various functions of the electronic device 100 .
  • the memory 170 may store a plurality of application programs (or applications) driven in the electronic device 100 , data for operation of the electronic device 100 , and commands.
  • at least some of the application programs may be downloaded from an external server through wireless communication.
  • at least some of the application programs may be stored in advance in the memory 170 for a specific function (eg, a call reception, a transmission function, a message reception function, a transmission function) of the electronic device 100 .
  • the application program stored in the memory 170 may be driven to, for example, perform a predetermined operation (or function) of the electronic device 100 based on the controller 180 .
  • the controller 180 may control the overall operation of the electronic device 100 .
  • the controller 180 processes signals, data, information, etc. input or output through components of the electronic device 100 , or by driving an application program stored in the memory 170 to provide information to the user or It can handle specific functions.
  • the controller 180 may control at least some of the components of the electronic device 100 illustrated in FIG. 1 to drive an application program stored in the memory 170 .
  • the controller 180 may operate by combining at least two or more of the components included in the electronic device 100 with each other.
  • the power supply unit 190 may receive external or internal power to supply power to each component included in the electronic device 100 based on the control of the control unit 180 .
  • the power supply 190 may include a battery.
  • the battery may include a built-in battery or a removable battery.
  • At least some of the above-described components of the electronic device 100 may operate in cooperation with each other to implement the operation, control, or control method of the electronic device 100 according to various embodiments described below. have. Also, the operation, control, or control method of the electronic device 100 may be implemented by driving at least one application program stored in the memory 170 .
  • the electronic device 100 and the display 151 may have a bar shape. However, it is not limited to such a shape, and various shapes may be applied within a range that does not contradict the characteristics of the present invention.
  • 2A is a front view of an electronic device according to an embodiment of the present disclosure
  • 2B is a schematic perspective view of an electronic device according to an embodiment of the present disclosure
  • the electronic device 100 has a first surface (eg, the front surface of the electronic device 100 ) facing in a first direction (+z direction) and A second surface (eg, the rear surface of the electronic device 100 ) facing in the opposite direction (-z direction), and a third surface (eg, of the electronic device 100 ) surrounding the space between the first surface and the second surface side) may be included.
  • the electronic device 100 may include the frame 200 as a case forming an exterior.
  • the electronic device 100 may include a front case 202 constituting a first surface (eg, a front surface) and a second surface (eg, a rear surface) and/or a third surface (eg, a side surface).
  • a rear case 204 may be included.
  • the electronic device 100 may further include a rear cover (not shown) that covers the second surface separately from the rear case 204 , or the rear cover and the rear case 204 may be provided as one body.
  • the front case 202 may be composed of a window made of a substantially transparent material, or may have a form combined with the window so that an image output from the display 151 can be viewed from the outside.
  • the electronic device 100 may include a display 151 and a user input unit 123 .
  • the display 151 may be visually recognized from the outside through at least the first surface, and may output an image to the outside through the first surface.
  • the display 151 may have a substantially rectangular shape with a vertical length longer than a horizontal width corresponding to the external shape of the electronic device 100 .
  • one or more user input units 123 may be disposed to face the third surface (eg, side) of the electronic device 100 .
  • the electronic device 100 may include a first input unit 123a and a second input unit 123b on one side of the third surface, and the other side of the third surface. It may include third input units 123c and 123c'.
  • the electronic device 100 may include only some of the first input unit 123a, the second input unit 123b, and the third input units 123c and 123c'.
  • the first input unit 123a, the second input unit 123b, and the third input units 123c and 123c' are all on the same surface (eg, the left side or the right side of the electronic device 100 ). may be placed in
  • the user input unit 123 may acquire user information by sensing whether pressure is applied by an external object (eg, a user's finger).
  • the user input unit 123 may include a pressure sensor (eg, a strain gauge, a piezo sensor, etc.) capable of acquiring information about a pressure position and/or pressure intensity in various ways.
  • the electronic device 100 eg, the controller 180 of the electronic device 100 ) determines whether a predetermined input signal is received as user information through the user input unit 123 , and A tactile effect and/or a sound effect may be output according to the reception of the input signal to notify that the user input has been received.
  • the controller 180 of the electronic device 100 may control the user input unit 123 based on a change in the posture of the electronic device 100 .
  • the electronic device 100 may control at least a portion of the user input unit 123 to vary the position of a region for receiving the user input based on the posture of the electronic device 100 .
  • FIGS. 3 and 4 a more detailed description will be provided later with reference to FIGS. 3 and 4 .
  • FIG 3 is a diagram illustrating a holding state of the electronic device 100 in a vertical mode according to an embodiment of the present disclosure.
  • 4 is a diagram illustrating a gripping state of the electronic device 100 in a horizontal mode according to an embodiment of the present disclosure.
  • the electronic device 100 uses at least one sensor (eg, the sensing unit 140 of FIG. 1 ) to position the electronic device 100 .
  • the electronic device 100 may obtain information related to , and determine the electronic device 100 as any one of a portrait mode (refer to FIG. 3 ) and a landscape mode (refer to FIG. 4 ).
  • the electronic device 100 may have a substantially rectangular bar shape in which a horizontal width and a vertical length are different from each other.
  • the electronic device 100 may obtain information about the posture of the electronic device 100 using at least one of a gyro sensor and a gravity sensor.
  • the information about the posture of the electronic device 100 may include information related to an angle formed by one side of the electronic device 100 with the ground.
  • the electronic device 100 when the shorter side of the side surfaces of the electronic device 100 faces upward and downward relative to the ground, the electronic device 100 may operate in a vertical mode.
  • the electronic device 100 when the longer side of the side surfaces of the electronic device 100 faces upward and downward relative to the ground, the electronic device 100 may operate in a horizontal mode.
  • the electronic device 100 may determine whether to rotate the output orientation of the image output to the display 151 based on the posture of the electronic device 100 . For example, as the posture of the electronic device 100 is changed, when the electronic device 100 is switched from a vertical mode to a horizontal mode or from a horizontal mode to a vertical mode, the electronic device 100 displays the display 151 ), by rotating the output direction of the image, the upper part of the image may be output to the upper part of the electronic device 100 with respect to the ground.
  • the operation of changing the image output direction of the display 151 based on the posture of the electronic device 100 may or may not be executed according to a user's selection.
  • the electronic device 100 may include at least one user input unit 123 .
  • the first surface (eg, the front surface) of the electronic device 100 is touched.
  • Third input units 123c and 123c' may be included on the right side as a reference.
  • the third input units 123c and 123c' may include a first area 123c and a second area 123c'.
  • the first area 123c and the second area 123c' are areas capable of receiving a user input, and may be positioned to have a predetermined separation space.
  • the electronic device 100 (eg, the controller 180 ) according to various embodiments of the present disclosure, based on the posture of the electronic device 100 , the first region 123c of the third input units 123c and 123c′. ) and the second region 123c' may be determined as the active region.
  • the active area may mean an area in which reception of a sensing signal is activated to recognize a user input, that is, a press or touch by an external object.
  • the electronic device 100 may check whether a user input is received in the first area 123c, and the first area 123c When a user input is received through , a specified function (eg, switching between the sleep mode and the wake-up mode of the electronic device 100 , etc.) may be executed.
  • a specified function eg, switching between the sleep mode and the wake-up mode of the electronic device 100 , etc.
  • the first region 123c is determined to be an active region
  • the second region 123c' is deactivated, and a user input may not be received through the second region 123c'.
  • the electronic device 100 activates the second area 123c' to receive a user input through the second area 123c'.
  • the electronic device 100 may execute a designated function. , and may correspond to the same function as the function executed when a user input is received through the first area 123c.
  • the first region 123c may be deactivated, and a user input through the first region 123c may be ignored.
  • first region 123c and the second region 123c' operate in such a way that when one region is deactivated, the other region is activated, and functions of each other may be substituted.
  • the second Area 1 123c may be designated as an active area. For example, in a state in which the user holds the electronic device 100 operating in the vertical mode with one hand, the user presses the first region 123c of the third input unit with a finger of the gripped hand to input a signal. and can execute the specified function.
  • the second region 123c' may be designated as an active region. For example, it may not be easy for the user to press the first region 123c with the gripped hand while holding the electronic device 100 in the horizontal mode, but the second region 123c' can be pressed relatively easily. to input a signal to the electronic device 100 .
  • the electronic device 100 switches to the horizontal mode based on the posture of the electronic device 100 even in the case of the first input unit 123a and the second input unit 123b to operate.
  • the position of the user input unit may be changed to receive the user input at a position different from the positions of the first input unit 123a and the second input unit 123b.
  • FIGS. 5A to 5C are diagrams schematically illustrating a front view of an electronic device according to various embodiments of the present disclosure.
  • FIG. 5A is a front view of the reduced area of the first image output region of the electronic device 100 according to an embodiment of the present disclosure
  • FIGS. 5B and 5C are each of the electronic device 100 of FIG. 5A .
  • It is a front view of a state in which the area of the first image output area is expanded in FIG.
  • the electronic device 100 is viewed through a first surface (eg, a front surface) of the electronic device 100 and expands an area of a first image output region that outputs an image through the first surface It may include a flexible type display 151 that can be reduced or reduced.
  • the display 151 (flexible display) is rolled, folded, or bent in a partial area (eg, upper or lower side of the electronic device 100 ), and a position of the rolled, folded, or bent display area As is moved, the area of the first image output area of the display 151 facing the first surface of the electronic device 100 may be expanded or reduced.
  • the electronic device 100 may further include a display area (eg, a second image output area) facing a second surface (eg, a rear surface) opposite to the first surface of the electronic device.
  • the second image output area is an area for outputting an image to the second surface (eg, the rear surface) of the electronic device 100 , and may include a display area viewed from the outside through the second surface. .
  • the first image output region may include a fixed region 151U and a variable region 151X.
  • the fixed area 151U may correspond to the area of the display 151 viewed from the first surface of the electronic device 100 even when the first image output area is reduced to a minimum.
  • the variable area 151X may correspond to a display area additionally viewed from the first surface of the electronic device 100 as the first image output area 151F is expanded.
  • the area of the variable region 151X may be changed according to the degree to which the position of the rolled, bent, or folded region of the display 151 is moved.
  • the fixed area 151U may be constant regardless of the rolling, bending, or change of the position of the folded area of the display 151 .
  • the electronic device 100 may include a frame including a first frame 210 and a second frame 220 that can move relative to the first frame 210 .
  • the second frame 220 may move linearly with respect to the first frame 210 in a sliding manner to move away from or closer to the first frame 210 .
  • the frame may serve to support the display 151 as a whole.
  • the first frame 210 and the second frame 220 are positioned so that a substantial portion overlaps each other when the display 151 is reduced, and when the display 151 is expanded, the second frame 220 ) moves away from the first frame 210 to reduce the overlapping portion between the first frame 210 and the second frame 220, and the first frame 210 and the second frame 220 Any one may additionally support an extended area (eg, the variable area 151X) of the display 151 .
  • the relative movement between the first frame 210 and the second frame 220 may be performed in response to an expansion or reduction operation of the display.
  • the area of the first image output area of the flexible display 151 facing one side (eg, the first side) of the electronic device 100 is a relative movement degree between the first frame 210 and the second frame 220 .
  • the display faces the second surface (eg, the rear surface) of the electronic device 100 .
  • a partial area (eg, the second image output area) of 151 may be drawn out and the area may be positioned to face the first surface as the first image output area, and the area of the first image output area may be expanded .
  • the electronic device 100 may display a partial area (eg, a first image) of the display 151 facing the first surface. output area) may be introduced, and the area as the second image output area may be positioned to face the second surface, and thus the area of the first image output area may be reduced.
  • a partial area eg, a first image
  • the electronic device 100 may display a partial area (eg, a first image) of the display 151 facing the first surface. output area) may be introduced, and the area as the second image output area may be positioned to face the second surface, and thus the area of the first image output area may be reduced.
  • a rolling, bending, or folding area of the display 151 may be located above the first surface of the electronic device 100 .
  • the variable region 151X is gradually drawn out from the upper side of the electronic device 100 . Accordingly, the first image output area may be expanded.
  • the rolling, bending, or folding area of the display 151 may be located below the first surface of the electronic device 100 .
  • the electronic device 100 gradually changes from the lower side of the electronic device 100 .
  • the first image output area may be expanded in such a way that the area 151X is drawn out.
  • the electronic device 100 may include at least one user input unit 123 .
  • the at least one user input unit 123 may be located on a side surface of the first frame 210 .
  • the user input unit 123 (eg, the first input units 123a and 123a', the second input units 123b and 123b', and the third input units 123c and 123c') is a control unit
  • a first area and a second area capable of selectively receiving a user input according to the control of 180 (controller) may be included, respectively.
  • the first input units 123a and 123a ′ may include a first region 123a and a second region 123a ′, and each region is controlled by the controller 180 ,
  • a function for receiving user input may be activated or deactivated.
  • the first region and the second region may be disposed on the same surface at the side of the electronic device 100 .
  • FIG. 6A and 6B are diagrams illustrating a state in which the electronic device 100 is held in a vertical mode according to an embodiment of the present disclosure.
  • FIG. 6A corresponds to a state in which the electronic device 100 in which the first image output area of the display 151 is reduced is gripped
  • FIG. 6B is the electronic device 100 in which the first image output area of the display 151 is expanded. ) may correspond to the holding state.
  • the electronic device 100 selects the user input unit 123 based on the posture of the electronic device 100 and whether the display area (the first image output area) of the electronic device 100 is expanded. can be controlled
  • the electronic device 100 acquires information about the posture of the electronic device 100 using at least one sensor (eg, a gyro sensor, a gravity sensor), and based on this, It can be determined in either a vertical mode or a horizontal mode.
  • the electronic device 100 uses at least one sensor (eg, an optical sensor) to output an image toward the first surface (front) of the electronic device 100 in a region (first part) of the display 151 . It is possible to obtain information on whether the area of the image output area is expanded (or the degree of expansion), and determine whether the first image output area is expanded.
  • the user input unit 123 is Among the first regions 123a, 123b, and 123c and the second regions 123a', 123b', and 123c', the first regions 123a, 123b, and 123c are determined as active regions, and the second regions 123a', 123b', 123c') can be disabled.
  • the electronic device 100 determines the first area as the active area regardless of whether the first image output area of the display 151 is expanded or not.
  • a signal may be input to the user input unit 123 in the same region (first region) using a finger of .
  • FIGS. 7A and 7B are diagrams illustrating a state in which the electronic device 100 is held in a horizontal mode according to an embodiment of the present disclosure.
  • 7A corresponds to a state in which the electronic device 100 in which the first image output area of the display 151 is reduced is gripped
  • FIG. 7B illustrates the electronic device 100 in which the first image output area of the display 151 is expanded. ) may correspond to the holding state.
  • the electronic device 100 is based on the posture of the electronic device 100 and whether the display area (first image output area) of the electronic device 100 is expanded. Thus, it is possible to control the input position of the user input unit.
  • the electronic device 100 may receive a user input based on the area of the first image output area.
  • the area eg active area
  • the area can be determined.
  • the user input unit ( 123), the first regions 123a, 123b, and 123c may be designated as active regions, and the second regions 123a', 123b', 123c' may be inactivated.
  • the user may input a signal by pressing the activated first regions 123a, 123b, and 123c with a finger while holding the electronic device 100 with one hand, and the electronic device 100 may A specified function may be executed based on a user input received through the first areas 123a, 123b, and 123c.
  • the user input unit ( Among 123), the second regions 123a', 123b', and 123c' may be designated as active regions, and the first regions 123a, 123b, and 123c may be inactivated.
  • the second regions 123a', 123b', and 123c' are closer to the second frame 220 than the first regions 123a, 123b, and 123c on the side of the first frame 210 . It can be placed in a position where For example, the user may input a signal through the second regions 123a ′, 123b ′, and 123c ′ using a finger held while holding the electronic device 100 with one hand. The electronic device 100 may execute a specified function based on a user input received through the second areas 123a', 123b', and 123c'.
  • the electronic device 100 displays the first areas 123a, 123b, and 123c. It is possible to receive a user input through the can
  • the electronic device 100 may change the position of the user input unit 123 of the electronic device 100 based on a change in the posture of the electronic device 100 or the shape of the display 151 of the electronic device 100 . By controlling it, it is possible to provide improved usability that makes user input easier.
  • the electronic device 100 may execute a preset function regardless of the location of the active area.
  • the electronic device 100 may execute the specified function in response to at least one of a force touch input, a double touch input, and a gesture input to the active region.
  • the electronic device 100 may execute the specified function in response to simultaneous input to a plurality of regions (eg, 123a and 123c, or 123a' and 123c') among the active regions.
  • the function may include a command related to expansion or reduction of the first image output area of the display 151 , a command to adjust the intensity of a sound signal, or between a sleep mode and a wake-up mode of the electronic device 100 . It may include at least one of a switch command.
  • the electronic device 100 may control the activation area of the user input unit 123 based on the user's grip area.
  • the electronic device 100 may obtain information related to a gripping region using at least one sensor, and identify whether the electronic device 100 is gripped by the left hand or the right hand based on the information.
  • the electronic device 1000 determines the first region of the user input unit 123 as the active region when the electronic device 100 is gripped with the left hand, and the user input unit 123 when the electronic device 100 is gripped with the right hand.
  • the electronic device 100 may determine the user based on at least one of a posture of the electronic device 100 , a gripping region of the electronic device 100 , and a change in the shape of the display. You can control the input.
  • FIGS. 8A to 8C are diagrams schematically illustrating an input unit of the electronic device 100 according to an embodiment of the present disclosure.
  • the electronic device 100 may include a strain gauge 300 as an input unit.
  • the strain gauge 300 may measure the first part 301 disposed to face the side surface of the electronic device 100 and the second part 302 disposed between the front and rear surfaces of the electronic device 100 .
  • the first portion 301 may include an area 310 capable of receiving a user input.
  • the second part 302 is connected to a printed circuit board electrically connected to the controller 180 of the electronic device 100 to transmit an input signal obtained through the first part 301 to the controller 180 .
  • the user input receiving area 310 of the strain gauge 300 may be divided into a plurality of areas spaced apart from each other.
  • the electronic device 10 determines in which area of the plurality of spaced areas a user input is received by ignoring press information generated in a space (eg, an inactive area) spaced apart between the plurality of areas. can be identified.
  • the strain gauge 300 is, as shown in FIGS. 8A to 8C, A region 312, B region 314, C region 316, spaced apart from each other at predetermined intervals. and a D region 318 .
  • the regions A 312 to 318 may correspond to 123b, 123a, 123b', and 123a' illustrated in FIG. 5A , respectively.
  • FIG. 8A shows a structure in which the regions A 312 to 318 are arranged to have the same spacing WG, respectively, the spacing and arrangement structure may be variously designed and changed.
  • the interval between the B region 314 and the C region 316 may have a larger spacing than the spacing between other regions.
  • the electronic device 100 activates the A region 312 and the B region 314 , and inactivates the C region 316 and D region 318 , the strain The gauge 300 may be controlled.
  • the electronic device 100 deactivates the A region 312 and the B region 314 and activates the C region 316 and the D region 318 with the strain gauge ( 300) can be controlled.
  • the second region corresponding to the user input received through the A region 312 when the A region 312 and the B region 314 are activated and the C region 316 and the D region 318 are inactive, the second region corresponding to the user input received through the A region 312 .
  • the first function may be different from the second function corresponding to the user input received through the B region 314 .
  • the function corresponding to the user input received through the C area 316 may be the same as the first function corresponding to the user input received through the A area 312 , and may be received through the D area 318 .
  • a function corresponding to one user input may be the same as a second function corresponding to the user input received through the region B 314 .
  • the electronic device 100 may include regions A 312 to 318 based on the posture of the electronic device 100 or whether the first image output region of the display 151 is expanded. Only one of the regions may be determined as an active region, and a user input may be received through the active region. For example, when the electronic device 100 operates in the horizontal mode and the first image output area is reduced to a minimum, the electronic device 100 may determine the A area 312 as the active area. In addition, when the electronic device 100 operates in the horizontal mode and the first image output region is maximally expanded, the D region 318 may be determined as the active region, and the first image output region by a specified size In this partially expanded case, either the B region 314 or the C region 316 may be determined as the active region.
  • the electronic device 100 may include a switching module for distinguishing between an active region and other regions among a plurality of regions of the strain gauge 300 for controlling the same.
  • the switching module may include single pole double thorow (SPDT) type switches.
  • SPDT single pole double thorow
  • the switch connected to the A region 312 is connected to the C region 316
  • the switch connected to the B region 314 is connected to the The switching module
  • the switching module may be controlled to connect to the D region 318 .
  • the electronic device 100 connects the switch connected to the C region 316 with the A region 312 and the switch connected to the D region 318 .
  • the switching module may be controlled to connect to the B region 314 .
  • 9A and 9B are diagrams for explaining an input unit of the electronic device 100 according to an embodiment of the present disclosure.
  • the electronic device 100 may include a hybrid ultrasonic sensor as an input unit.
  • the hybrid ultrasonic sensor has a configuration that replaces the function of the strain gauge 300 described with reference to FIGS. 8A to 8C , and may acquire user input information.
  • 9A is a diagram schematically illustrating a portion 401 of a hybrid ultrasonic sensor disposed to face a side surface of the electronic device 100 .
  • the hybrid ultrasonic sensor may include a plurality of sensor sets disposed to correspond to a plurality of regions 412 , 414 , 416 , and 418 .
  • 9B is a diagram illustrating a specific sensor set of the hybrid ultrasonic sensor in more detail.
  • a hybrid ultrasonic sensor includes a strain gauge sensor 421 , a first piezo sensor 422 , and a second sensor set provided in a plurality of regions.
  • a piezo sensor 423 may be included.
  • the strain gauge sensor 421 may obtain information on the degree of pressure (strength of pressure) when pressure on an external object (eg, a finger) occurs in an area where the sensor set is located. have.
  • the first piezo sensor 422 and the second piezo sensor 423 are related to a surface acoustic wave (SAW) in a space between the first piezo sensor 422 and the second piezo sensor 423 .
  • SAW surface acoustic wave
  • the electronic device 100 acquires information about the position of a user input using the first piezo sensor 422 and the second piezo sensor 423, and the first piezo sensor 422
  • the intensity information of the user input may be obtained using the strain gauge sensor 421 between the and the second piezo sensor 423, and by combining these information, the plurality of regions 412, 414, 416 of the hybrid ultrasonic sensor , 418), it may be determined whether a user input is received in one area.
  • the plurality of regions included in the hybrid ultrasonic sensor are selectively activated based on the posture of the electronic device 100 or whether the first image output region of the display 151 is expanded (or the extent of expansion). can be enabled or disabled.
  • 10A and 10B are diagrams for explaining an input unit of the electronic device 100 according to another embodiment of the present disclosure.
  • the electronic device 100 may include a MEMS hybrid force sensor as an input unit.
  • the MEMS hybrid force sensor includes a plurality of regions spaced apart from each other on a portion 501 of the printed circuit board 530 connected to the controller 180 that is disposed to face the side of the electronic device 100 . s 512 , 514 , 516 , 518 .
  • the other portion 502 of the printed circuit board 530 may be interposed between the front and rear surfaces of the electronic device 100 .
  • the plurality of regions 512 , 514 , 516 , and 518 included in the MEMS hybrid force sensor may each include a MEMS sensor 520 .
  • the MEMS sensor 520 may be integrally mounted on a printed circuit board.
  • the MEMS sensor 520 may receive a user input by generating ultrasonic waves to the outside through the side surface of the electronic device 100 and acquiring ultrasonic information reflected by an external object.
  • the MEMS sensor 520 may be attached to or mounted on a bezel (or bumper) 210S of a frame (eg, the first frame 210 ) constituting the side surface of the electronic device 100 .
  • the electronic device 100 determines a part of the plurality of regions 512 , 514 , 516 , and 518 of the MEMS hybrid force sensor as an activation region, and receives a user input through the activation region.
  • FIG. 11A and 11B are side cross-sectional views of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 includes a first surface (eg, a front surface) facing a first direction and a second surface (eg, a second surface opposite to the first direction).
  • a first surface eg, a front surface
  • a second surface eg, a second surface opposite to the first direction.
  • At least one sensor 600 eg, an optical sensor disposed to face the first surface at a point between the rear surfaces thereof may be included.
  • the electronic device 100 may include a display 151 that is rolled, folded, or bent in one area, and the display 151 includes As the area to be rolled, folded, or bent moves, the area of the display area (the first image output area) facing the first surface may vary.
  • the at least one sensor 600 irradiates light to the outside through the first surface, receives information about the received light reflected from the outside, and whether the first image output area is expanded (or degree of expansion) can be identified.
  • the electronic device 100 may include a second frame 220 that slides with respect to the first frame 210 in response to a change in the area of the first image output area of the display 151 . and according to the movement of the second frame 220 and the change of the shape of the display 151 , different information may be obtained from the at least one sensor 600 .
  • the electronic device 100 uses the at least one sensor 600 to provide information related to relative movement between the first frame 210 and the second frame 220 (eg, movement direction, movement speed) and/or the Information related to a change in the area of the first image output region may be acquired, and the user input unit may be controlled based on the information.
  • information related to relative movement between the first frame 210 and the second frame 220 eg, movement direction, movement speed
  • Information related to a change in the area of the first image output region may be acquired, and the user input unit may be controlled based on the information.

Abstract

다양한 실시예에 따른 전자 장치는, 상기 전자 장치의 전면을 통해 영상을 출력하는 디스플레이; 상기 전자 장치의 측면에 대향하여 배치되고, 제1영역 및 제2영역을 포함하는, 입력부; 및 컨트롤러를 포함하고, 상기 컨트롤러는, 상기 전자 장치의 자세(posture)에 기반하여 상기 제1영역 또는 상기 제2영역 중 어느 하나를 활성화 영역으로 결정하고, 상기 활성화 영역을 통해 사용자 입력을 수신하도록 설정될 수 있다. 이밖에 다양한 실시예들이 가능하다.

Description

전자 장치
본 개시의 다양한 실시예는, 전자 장치에 관한 것이다.
최근 디지털 기술의 발달과 함께 이동통신 단말기, 스마트폰(smart phone), 태블릿(tablet) PC(personal computer) 등과 같은 다양한 유형의 전자 장치가 널리 사용되고 있다.
일반적으로 전자 장치에 구비되는 디스플레이는, 가로와 세로의 길이가 상이한 직사각형(또는 바) 형상을 가질 수 있다. 또한, 이러한 디스플레이가 장착된 전자 장치의 외관 역시 디스플레이의 형상에 대응하여 직사각형 형상을 가지는 것이 보편적이다.
한편, 전자 장치의 성능이 향상됨에 따라 다양한 기능들을 보다 효율적으로 제공할 수 있는 대면적 디스플레이에 대한 수요가 증가하고 있으며, 이에 대한 방안으로, 충분한 탄성을 갖는 플렉서블 디스플레이(예: 폴더블 디스플레이, 롤러블 디스플레이 등)를 활용하여, 휴대 시에는 디스플레이의 적어도 일부분을 접거나(folding) 말아(rolling) 넣고, 필요한 경우에만 상기 접히거나 말린 디스플레이를 펼쳐 사용할 수 있는 방식의 전자 장치가 검토되고 있다.
전자 장치는 사용자 편의를 고려하여 적합한 사용성을 제공할 필요가 있다. 예컨대, 직사각형 형상의 전자 장치는, 사용자가 전자 장치를 수직 방향으로 파지하는지 또는 수평 방향으로 파지하는지 등과 같은 전자 장치의 자세 변화에 따라 선택적으로 디스플레이의 출력 영상의 방향을 회전하여 제공함으로써, 사용자의 예상 시야에 부합하는 방향으로 영상을 출력할 것이 요구될 수 있다.
그러나, 전자 장치의 자세가 변경되더라도 전자 장치의 프레임 일측에 배치된 입력부는 일정한 위치에 고정되어 있으므로, 사용자가 수직 방향으로 파지한 경우에는 상기 입력부를 통한 신호 입력이 용이했던 경우라도, 수평 방향으로 파지한 경우 상기 입력부를 터치하거나 가압하기 어려울 수 있다.
다양한 실시예에 따른 전자 장치는, 상기 전자 장치의 전면을 통해 영상을 출력하는 디스플레이; 상기 전자 장치의 측면에 대향하여 배치되고, 제1영역 및 제2영역을 포함하는, 입력부; 및 컨트롤러를 포함하고, 상기 컨트롤러는, 상기 전자 장치의 자세(posture)에 기반하여 상기 제1영역 또는 상기 제2영역 중 어느 하나를 활성화 영역으로 결정하고, 상기 활성화 영역을 통해 사용자 입력을 수신할 수 있다.
예를 들어, 상기 전자 장치는, 적어도 하나의 센서를 더 포함하고, 상기 컨트롤러는, 상기 적어도 하나의 센서를 이용하여 상기 전자 장치의 자세에 관한 정보를 획득하고, 상기 획득한 정보에 기초하여 상기 전자 장치를 수평 모드(landscape mode) 또는 수직 모드(portrait mode) 중 어느 하나로 결정할 수 있다.
예컨대, 상기 컨트롤러는, 상기 결정된 모드에 대응하여, 상기 디스플레이의 영상 출력 방향(orientation) 및 상기 입력부의 활성화 영역을 결정할 수 있다.
예를 들어, 상기 컨트롤러는, 상기 전자 장치가 상기 수평 모드인 경우 상기 제1영역을 상기 활성화 영역으로 결정하고, 상기 전자 장치가 상기 수직 모드인 경우 상기 제2영역을 상기 활성화 영역으로 결정할 수 있다.
예를 들어, 상기 컨트롤러는, 상기 제1영역이 상기 활성화 영역으로 결정된 경우, 상기 제2영역을 비활성화하고, 상기 제2영역이 활성화 영역으로 결정된 경우, 상기 제1영역을 비활성화할 수 있다.
예컨대, 상기 컨트롤러는, 상기 결정된 활성화 영역을 통해 사용자 입력이 수신되는 것에 기반하여, 지정된 기능을 실행할 수 있다.
예컨대, 상기 제1영역 및 상기 제2영역은 동일 평면 상에서 상호 이격되어 위치될 수 있다.
예를 들어, 상기 입력부는, 스트레인 게이지를 포함하고, 상기 스트레인 게이지는, 상기 제1영역, 상기 제2영역, 및 상기 제1영역과 상기 제2영역 사이의 비활성화 영역을 포함할 수 있다.
다양한 실시예에 따른 전자 장치는, 제1프레임 및 상기 제1프레임에 대해 슬라이딩 이동 가능하도록 배치된 제2프레임을 포함하는, 프레임; 상기 프레임에 의해 지지되며, 상기 제1프레임과 상기 제2프레임 간의 상대 이동에 대응하여 상기 전자 장치의 전면을 통해 영상을 출력하는 제1영상출력영역의 면적이 가변하는, 플렉서블 디스플레이; 제1영역 및 제2영역을 포함하는, 입력부; 적어도 하나의 센서; 및 컨트롤러를 포함하고, 상기 컨트롤러는, 상기 적어도 하나의 센서를 이용하여, 상기 전자 장치의 자세 또는 상기 제1영상출력영역의 면적 중 적어도 하나에 관한 정보를 획득하고, 상기 획득한 정보에 기반하여 상기 제1영역 또는 상기 제2영역 중 어느 하나를 상기 입력부의 활성화 영역으로 결정하고, 상기 활성화 영역을 통해 사용자 입력을 수신할 수 있다.
예를 들어, 상기 전자 장치의 자세에 관한 정보에 기반하여, 상기 전자 장치를 수평 모드 또는 수직 모드 중 어느 하나로 결정하고, 상기 결정된 모드에 기초하여 상기 제1영상출력영역의 영상 출력 방향 및 상기 입력부의 활성화 영역을 결정할 수 있다.
예를 들면, 상기 컨트롤러는, 상기 전자 장치가 상기 수직 모드인 경우, 상기 제1영역을 상기 활성화 영역으로 결정하고, 상기 전자 장치가 상기 수평 모드이고 상기 제1영상출력영역의 면적이 지정된 크기 이상인 경우, 상기 제2영역을 상기 활성화 영역으로 결정할 수 있으며, 상기 전자 장치가 수평 모드이고 상기 제1영상출력영역의 면적이 지정된 크기 미만인 경우, 상기 제1영역을 상기 활성화 영역으로 결정할 수 있다.
예컨대, 상기 컨트롤러는, 상기 제1영역이 활성화 영역으로 결정된 경우, 상기 제2영역을 비활성화하고, 상기 제2영역이 활성화 영역으로 결정된 경우, 상기 제1영역을 비활성화할 수 있다.
예컨대, 상기 제1영상출력영역은, 확장 시에, 실질적으로 직사각형일 수 있다.
예컨대, 상기 제1영역 및 상기 제2영역은, 상기 제1프레임의 제1측면에 대향하도록 배치되고, 상기 제1측면과 수직하는 상기 제2프레임의 제2측면을 기준으로 상기 제2영역이 상기 제1영역보다 더 가깝게 위치할 수 있다.
예를 들어, 상기 컨트롤러는, 상기 전자 장치의 자세에 기초하여, 상기 제1측면이 상기 전자 장치의 상부에 위치하는 것으로 판단할 경우, 상기 전자 장치를 상기 수평 모드로 결정하고, 상기 제2측면이 상기 전자 장치의 상부에 위치하는 것으로 판단할 경우, 상기 전자 장치를 수직 모드로 결정할 수 있다.
예컨대, 상기 입력부는, 압력 센서(예: 스트레인 게이지) 또는 초음파 센서(예: 피에조 센서) 중 적어도 하나를 포함할 수 있다.
예를 들어, 상기 입력부는, 스트레인 게이지를 포함하고, 상기 스트레인 게이지는, 상기 제1영역, 상기 제2영역, 및 상기 제1영역과 상기 제2영역 사이의 비활성화 영역을 포함할 수 있다.
예를 들어, 상기 입력부는, 상기 제1영역 및 상기 제2영역에 대응하여 배치되는 복수의 센서 셋들을 포함하고, 상기 센서 셋은, 스트레인 게이지 및 상기 스트레인 게이지를 사이에 두고 배치된 복수의 피에조 센서들을 포함할 수 있다.
예를 들어, 상기 제1영역 및 상기 제2영역은 동일 면 상에 이격되어 위치할 수 있다.
예를 들어, 상기 입력부는, 동일 면 상에서 순서대로 소정 간격 이격 배치된 제1영역, 제2영역, 제3영역, 및 제4영역을 포함하고, 상기 컨트롤러는, 상기 획득한 정보에 기반하여, 상기 제1영역과 상기 제3영역을 활성화 영역으로 결정하거나, 또는 상기 제2영역과 상기 제4영역을 활성화 영역으로 결정할 수 있다.
예를 들어, 상기 입력부는, 압력 센서 또는 초음파 센서 중 적어도 하나를 포함하고, 상기 압력 센서 또는 상기 초음파 센서 중 적어도 하나는, 상기 컨트롤러와 전기적으로 연결된 인쇄회로기판에 실장될 수 있다.
예를 들어, 상기 적어도 하나의 센서는, 자이로 센서 또는 광 센서 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따른 전자 장치는 플렉서블 디스플레이를 이용하여 전면 또는 배면의 영상 출력 영역을 선택적으로 확장 또는 축소할 수 있다. 이에 따라 휴대가 용이하고 선택적으로 대면적 디스플레이를 활용할 수 있는 전자 장치를 제공할 수 있다.
다양한 실시예에 따른 전자 장치는, 전자 장치의 형태가 변경되거나 전자 장치의 자세가 변경될 경우에도 사용자 입력이 용이한 입력부를 제공함으로써 사용자 편의를 개선할 수 있다.
도 1은 본 개시의 다양한 실시예에 따른 전자 장치의 구성 블록도이다.
도 2a는 본 개시의 일 실시예에 따른 전자 장치의 전면도이다.
도 2b는 본 개시의 일 실시예에 따른 전자 장치의 사시도이다.
도 3은 본 개시의 일 실시예에 따른 전자 장치를 수직 모드에서 파지한 상태를 도시한 도면이다.
도 4는 본 개시의 일 실시예에 따른 전자 장치를 수평 모드에서 파지한 상태를 도시한 도면이다.
도 5a 내지 도 5c 는 본 개시의 일 실시예에 따른 전자 장치의 전면도이다.
도 6a 및 도 6b는 본 개시의 일 실시예에 따른 전자 장치를 수직 모드에서 파지한 상태를 도시한 도면이다.
도 7a 및 도 7는 본 개시의 일 실시예에 따른 전자 장치를 수평 모드에서 파지한 상태를 도시한 도면이다.
도 8a 내지 도 8c는 본 개시의 일 실시예에 따른 입력부를 개략적으로 도시한 도면이다.
도 9a 및 도 9b는 본 개시의 일 실시예에 따른 입력부를 개략적으로 도시한 도면이다.
도 10a 및 도 10b는 본 개시의 일 실시예에 따른 입력부를 개략적으로 도시한 도면이다.
도 11a 및 도 11b는 본 개시의 일 실시예에 따른 전자 장치의 개략적인 측단면도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다양한 실시예에 따른 전자 장치는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device)(예: 워치형 단말기(smartwatch), 글래스형 단말기(smart glass), HMD(head mounted display)), 디지털 TV, 데스크탑 컴퓨터, 또는 디지털 사이니지 중 적어도 하나를 포함할 수 있다.
도 1은 본 개시의 다양한 실시예에 따른 전자 장치의 구성 블록도이다.
도 1을 참조하면, 다양한 실시예에 따른 전자 장치(100)는, 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(또는, 컨트롤러)(180) 및 전원공급부(190) 중 적어도 하나를 포함할 수 있다.
본 개시의 다양한 실시예들에 따른 전자 장치(100)는 도 1에 도시된 구성요소들 이외에도 다른 구성들을 포함할 수 있으며, 도 1에 도시된 구성요소들 중 일부만을 포함할 수도 있다.
무선 통신부(110)는, 전자 장치(100)와 무선 통신 시스템 사이, 전자 장치(100)와 또 다른 전자 장치(미도시)(예: 전자 장치(100)) 사이, 또는 전자 장치(100)와 외부 서버 간에 무선 통신이 가능하도록 하는, 하나 이상의 모듈을 포함할 수 있다. 무선 통신부(110)는, 전자 장치(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치 정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
입력부(120)는, 영상 신호 입력을 수신하기 위한 영상 입력부(예컨대, 카메라(121)), 오디오 신호 입력을 수신하기 위한 오디오 입력부(예컨대, 마이크(microphone)(122)), 또는 기타 사용자 입력을 수신하기 위한 사용자 입력부(123) 중 적어도 하나를 포함할 수 있다. 예컨대 사용자 입력부(123)는, 디스플레이(151)에 구비된 터치 센서(또는, 터치 패널)를 통해 사용자 터치 입력을 수신하거나, 또는 물리 키(mechanical key)를 통해 사용자 입력을 수신할 수 있다. 입력부(120)에서 수집된 정보들(예컨대, 음성 데이터, 이미지 데이터 등)은, 분석되어 사용자의 제어 명령으로 처리될 수 있다.
센싱부(140)는, 전자 장치(100) 내의 정보, 전자 장치(100)를 둘러싼 주변 환경 정보, 또는 사용자 정보 중 적어도 하나를 센싱하기 위한, 하나 이상의 센서들을 포함할 수 있다.
예를 들어, 센싱부(140)는 근접센서(proximity sensor)(141), 조도 센서(illumination sensor)(142), 온도 센서(143), 자이로 센서(gyroscope sensor)(144), 가속도 센서(acceleration sensor)(145) 중 적어도 하나를 포함할 수 있다. 이밖에도 센싱부(140)는 터치 센서(touch sensor), 지문 인식 센서(finger scan sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 또는 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다.
한편, 본 명세서에 개시된 전자 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 정보를 출력할 수 있다. 예를 들어, 출력부(150)는 디스플레이(151), 음향 출력 모듈(152), 햅틱 모듈(153), 또는 광 출력부(154) 중 적어도 하나를 포함할 수 있다.
일 실시예에서 디스플레이(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성되어, 터치 입력 기능과 화면 출력 기능을 동시에 제공하는 터치 스크린을 구현할 수 있다. 예컨대 터치 스크린은, 전자 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로서 기능할 뿐 아니라, 전자 장치(100)와 사용자 사이의 출력 인터페이스를 제공하는 출력부(150)로서 기능할 수 있다.
한편, 다양한 실시예에 따른 전자 장치(100)는, 상기 영상 정보를 출력하기 위한 디스플레이(151)로서, 말리거나(rollable), 구부러지거나(bending), 또는 접힐 수 있는(foldable) 플렉서블한 타입의 디스플레이를 포함할 수 있다. 예컨대 상기 플렉서블 디스플레이는, 기존의 평판형 디스플레이의 화면 출력 특성을 가지면서도, 종이와 같이 휘어지거나, 구부러지거나, 접히거나, 비틀리거나, 말릴 수 있도록, 얇고 유연한 기판 상에 형성될 수 있다.
예를 들어, 플렉서블 디스플레이는 터치센서와 조합되어 플렉서블 터치 스크린을 구현할 수 있다. 예를 들어, 제어부(180)는, 플렉서블 디스플레이의 상기 플렉서블 터치 스크린를 통해 터치 입력을 감지하고, 상기 터치 입력에 상응하는 다양한 기능을 수행할 수 있다.
전자 장치(100)는, 플렉서블 디스플레이의 형태 변경을 감지할 수 있는 변형감지수단(미도시)을 더 포함할 수 있다. 일 예로 전자 장치(100)는 센싱부(140)의 적어도 하나의 구성을 통해 상기 플렉서블 디스플레이의 형태 변경을 감지할 수 있다. 예컨대, 제어부(180)는, 상기 변형감지수단(미도시) 또는 센싱부(140) 중 적어도 하나를 통해 감지되는 플렉서블 디스플레이의 형태 변경에 기초하여, 플렉서블 디스플레이 상에 표시되는 정보를 변경하여 출력하거나, 소정의 제어 신호를 생성할 수 있다.
예컨대, 상기 플렉서블 디스플레이의 형태 변경은, 전자 장치(100)의 제1면(예: 전면)을 통해 시인되며 외부로 영상을 출력하는 플렉서블 디스플레이 영역의 면적 변경을 포함할 수 있다. 예를 들어, 플렉서블 디스플레이는, 일부 영역이 말리거나 접히거나 휘어짐에 따라, 전자 장치(100)의 제1면을 향하는 플렉서블 디스플레이의 영상 출력 영역의 면적이 확장되거나 축소될 수 있다.
전술한 플렉서블 디스플레이의 형태 변경은, 사용자에 의한 외력에 기반하여 발생할 수 있으나 이에 국한되는 것은 아니다. 예를 들어, 전자 장치(100)는 상기 입력부(120) 또는 센싱부(140)를 통한 입력이나 특정 애플리케이션 명령 등에 기반하여, 상기 플렉서블 디스플레이의 형태를 자동으로 변경할 수 있으며, 전자 장치(100)는 상기 디스플레이의 형태 변경을 위한 구동부를 더 포함할 수 있다. 일 예를 들면, 전자 장치(100)는 상기 구동부의 구동에 따라 플렉서블 디스플레이가 말리거나 접히거나 휘어지는 영역의 위치를 이동시킴으로써, 상기 제1면을 통해 시인되는 플렉서블 디스플레이의 면적을 확장하거나 축소할 수 있다. 상기 구동부는 제어부(180)의 제어 하에 구동될 수 있다.
음향 출력 모듈(152)은, 호 신호 수신, 통화 모드 또는 녹음 모드, 음성인식 모드, 방송 수신 모드 등에서 무선 통신부(110)로부터 수신되거나 또는 메모리(170)에 미리 저장된 오디오 데이터를 외부에 출력할 수 있다. 예를 들어, 음향 출력 모듈(152)은, 전자 장치(100)에서 수행되는 기능(예를 들어, 호 신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력할 수 있다. 예를 들어, 음향 출력 모듈(152)은, 리시버(receiver), 스피커(speaker), 또는 버저(buzzer) 중 적어도 하나를 포함할 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킬 수 있다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 포함될 수 있다. 햅틱 모듈(153)을 통해 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부(180)의 설정에 의해 결정될 수 있다. 예를 들어, 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
광출력부(154)는 전자 장치(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력할 수 있다. 예컨대 전자 장치(100)에서 발생되는 상기 이벤트는, 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 중 적어도 하나를 포함할 수 있다.
인터페이스부(160)는, 전자 장치(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들어 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 전자 장치(100)는, 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 특정 기능 또는 제어를 수행할 수 있다.
메모리(170)는, 전자 장치(100)의 다양한 기능과 관련된 데이터를 저장할 수 있다. 예를 들어, 메모리(170)는 전자 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 전자 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 예를 들어, 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또는, 다른 예에서, 응용 프로그램 중 적어도 일부는, 전자 장치(100)의 특정 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 메모리(170)에 미리 저장될 수 있다. 메모리(170)에 저장된 응용 프로그램은, 예컨대 제어부(180)에 기반하여 전자 장치(100)의 소정의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는, 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어 제어부(180)는 전자 장치(100)의 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나, 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 정보를 제공하거나 특정 기능을 처리할 수 있다.
예를 들어, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1에 도시된 전자 장치(100)의 구성요소들 중 적어도 일부를 제어할 수 있다. 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 전자 장치(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수도 있다.
전원공급부(190)는, 제어부(180)의 제어에 기반하여, 외부 또는 내부의 전원을 인가 받아 전자 장치(100)에 포함된 각 구성요소들에 전원을 공급할 수 있다. 전원공급부(190)는 배터리를 포함할 수 있다. 상기 배터리는 내장형 배터리 또는 탈착 가능한 형태의 배터리를 포함할 수 있다.
전술한 전자 장치(100)의 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시예들에 따른 전자 장치(100)의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 전자 장치(100)의 동작, 제어, 또는 제어 방법은, 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 구현될 수 있다.
본 개시의 다양한 실시예에 따른 전자 장치(100) 및 디스플레이(151)는, 바(bar) 형상을 가질 수 있다. 그러나 이와 같은 형상에 한정되는 것은 아니며 본 발명의 특징과 모순되지 않는 범위 내에서 다양한 형상이 적용될 수 있다.
도 2a는 본 개시의 일 실시예에 따른 전자 장치의 전면도이다. 도 2b는 본 개시의 일 실시예에 따른 전자 장치의 개략적인 사시도이다.
도 2a 및 도 2b를 참조하면, 다양한 실시예에 따른 전자 장치(100)는 제1방향(+z 방향)으로 향하는 제1면(예: 전자 장치(100)의 전면)과 상기 제1방향의 반대 방향(-z 방향)으로 향하는 제2면(예: 전자 장치(100)의 배면), 그리고 제1면과 제2면 사이의 공간을 둘러싸는 제3면(예: 전자 장치(100)의 측면)을 포함할 수 있다.
예를 들어, 전자 장치(100)는 외관을 이루는 케이스로서 프레임(200)을 포함할 수 있다.
일 예를 들어, 전자 장치(100)는 제1면(예: 전면)을 구성하는 프론트 케이스(202)와 제2면(예: 배면) 및/또는 제3면(예: 측면)을 구성하는 리어 케이스(204)를 포함할 수 있다. 예컨대, 상기 전자 장치(100)는 리어 케이스(204)와 별도로 제2면을 커버하는 리어 커버(미도시)를 더 포함하거나, 또는 상기 리어 커버와 리어 케이스(204)가 일체인 형태로서 구비될 수도 있다. 예컨대, 프론트 케이스(202)는 디스플레이(151)로부터 출력되는 영상이 외부에서 시인될 수 있도록, 실질적으로 투명한 소재의 윈도우로 구성되거나, 상기 윈도우와 결합된 형태를 가질 수 있다.
다양한 실시예에 따르면, 전자 장치(100)는 디스플레이(151) 및 사용자 입력부(123)를 포함할 수 있다.
예를 들어, 디스플레이(151)는 적어도 제1면을 통해 외부에서 시인될 수 있으며, 상기 제1면을 통해 외부로 영상을 출력할 수 있다. 예를 들어, 디스플레이(151)는, 전자 장치(100)의 외형에 대응하여, 가로의 폭보다 세로의 길이가 더 긴 형태로서, 실질적으로 직사각형 형상을 가질 수 있다.
다양한 실시예에 따르면, 사용자 입력부(123)는, 전자 장치(100)의 제3면(예: 측면)에 대향하여 하나 이상의 개수로 배치될 수 있다. 예컨대, 도 2a 및 도 2b에 도시된 것과 같이, 전자 장치(100)는 제3면의 일측에 제1입력부(123a)와 제2입력부(123b)를 포함할 수 있으며, 제3면의 타측에 제3입력부(123c, 123c')를 포함할 수 있다.
도 2a 및 도 2b에서 개시하는 사용자 입력부(123)의 배치 위치 및 개수는 발명의 이해를 돕기 위한 일 실시예에 해당하는 것일 뿐, 본 발명이 이에 한정되지 않음은 물론이다. 예컨대, 또 다른 실시예에 따르면, 전자 장치(100)는 제1입력부(123a), 제2입력부(123b), 및 제3입력부(123c, 123c') 중 일부만을 포함할 수 있다. 또는, 도시된 것과 달리 제1입력부(123a), 제2입력부(123b), 및 제3입력부(123c, 123c')는 모두 동일한 면(예: 전자 장치(100)의 좌측면 또는 우측면 등) 상에 배치될 수도 있다.
예를 들어, 사용자 입력부(123)는, 외부 객체(예: 사용자 손가락)에 의한 가압 여부를 센싱하여 사용자 정보를 획득할 수 있다. 예컨대, 사용자 입력부(123)는, 다양한 방식으로 압력 위치 및/또는 압력 세기에 관한 정보를 획득할 수 있는 압력 센서(예: 스트레인 게이지, 피에조 센서 등)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(100)(예: 전자 장치(100)의 제어부(180))는, 사용자 입력부(123)를 통해 사용자 정보로서 소정의 입력 신호가 수신되는지 여부를 판단하고, 상기 입력 신호의 수신에 따라 촉각 효과 및/또는 음향 효과를 출력하여, 사용자 입력이 수신되었음을 알림(notification)할 수 있다.
본 개시의 다양한 실시예에 따르면, 전자 장치(100)의 제어부(180)는, 전자 장치(100)의 자세 변경에 기반하여 사용자 입력부(123)를 제어할 수 있다. 예를 들어, 전자 장치(100)는 사용자 입력부(123) 중 적어도 일부에 대해, 상기 전자 장치(100)의 자세에 기반하여 사용자 입력을 수신하는 영역의 위치가 가변하도록 제어할 수 있다. 이와 관련하여 보다 구체적인 설명은 이하 도 3 및 도 4를 참조하여 후술하도록 한다.
도 3은 본 개시의 일 실시예에 따른 전자 장치(100)의 수직 모드에서의 파지 상태를 도시한 도면이다. 도 4는 본 개시의 일 실시예에 따른 전자 장치(100)의 수평 모드에서의 파지 상태를 도시한 도면이다.
도 3 및 도 4를 참조하면, 전자 장치(100)(예: 제어부(180))는, 적어도 하나의 센서(예: 도 1의 센싱부(140))를 이용하여 전자 장치(100)의 자세와 관련된 정보를 획득하고, 전자 장치(100)를 수직 모드(portrait mode)(도 3 참조) 또는 수평 모드(landscape mode)(도 4 참조) 중 어느 하나의 모드로 결정할 수 있다.
전술한 바와 같이, 전자 장치(100)는 가로의 폭과 세로의 길이가 서로 다른, 실질적으로 직사각형의 바 형상을 가질 수 있다.
예를 들어, 전자 장치(100)는 자이로 센서 또는 중력 센서 중 적어도 하나를 이용하여 전자 장치(100)의 자세에 관한 정보를 획득할 수 있다. 예컨대, 상기 전자 장치(100)의 자세에 관한 정보는, 전자 장치(100)의 일 측면이 지면과 이루는 각도와 관련된 정보를 포함할 수 있다.
예컨대, 도 3에 도시된 것과 같이, 전자 장치(100)의 측면 중 짧은 면이 지면을 기준으로 상대적으로 상측 및 하측으로 향하는 경우, 전자 장치(100)는 수직 모드로서 동작할 수 있다. 예컨대, 도 4에 도시된 것과 같이, 전자 장치(100)의 측면 중 긴 면이 지면을 기준으로 상대적으로 상측 및 하측으로 향하는 경우, 전자 장치(100)는 수평 모드로서 동작할 수 있다.
전자 장치(100)는, 상기 전자 장치(100)의 자세에 기반하여, 디스플레이(151)에 출력되는 영상의 출력 방향(orientation)을 회전시킬지 여부를 결정할 수 있다. 예를 들어, 전자 장치(100)의 자세가 변경됨에 따라, 전자 장치(100)가 수직 모드에서 수평 모드로 전환되거나 또는 수평 모드에서 수직 모드로 전환될 경우, 전자 장치(100)는 디스플레이(151)에 출력되는 영상의 출력 방향을 회전하여, 지면을 기준으로 전자 장치(100)의 상측부에 영상의 상측부가 출력되도록 제어할 수 있다.
한편, 이와 같은 전자 장치(100)의 자세에 기반한 디스플레이(151)의 영상 출력 방향의 변경 동작은, 사용자의 선택에 따라, 실행되거나, 실행되지 않을 수 있다.
다양한 실시예에 따르면, 전자 장치(100)는, 적어도 하나의 사용자 입력부(123)를 포함할 수 있다.
예를 들어, 일 실시예에 따른 전자 장치(100)는, 도 3에 도시된 것과 같이 전자 장치(100)가 수직 모드인 상태에서, 전자 장치(100)의 제1면(예: 전면)을 기준으로 우측면에 제3입력부(123c, 123c')를 포함할 수 있다.
상기 제3입력부(123c, 123c')는, 제1영역(123c) 및 제2영역(123c')을 포함할 수 있다. 상기 제1영역(123c)과 제2영역(123c')은 사용자 입력을 수신할 수 있는 영역으로서, 소정의 이격 공간을 갖도록 위치할 수 있다.
본 개시의 다양한 실시예에 따른 전자 장치(100)(예: 제어부(180))는, 전자 장치(100)의 자세에 기반하여, 제3입력부(123c, 123c')의 상기 제1영역(123c)과 제2영역(123c') 중 어느 하나를 활성화 영역으로 결정할 수 있다. 상기 활성화 영역은, 사용자 입력, 즉 외부 객체에 의한 가압 또는 터치를 인식할 수 있도록, 센싱 신호의 수신이 활성화된 영역을 의미할 수 있다.
예를 들어, 제1영역(123c)이 활성화 영역으로 결정되는 경우, 전자 장치(100)는 상기 제1영역(123c)에서 사용자 입력이 수신되는지 여부를 확인할 수 있으며, 상기 제1영역(123c)을 통해 사용자 입력이 수신될 경우, 지정된 기능(예: 전자 장치(100)의 슬립 모드 및 웨이크-업 모드 간 전환, 등)을 실행할 수 있다. 한편, 상기 제1영역(123c)이 활성화 영역으로 결정될 경우, 제2영역(123c')은 비활성화되어, 상기 제2영역(123c')을 통해서는 사용자 입력이 수신되지 않을 수 있다.
예를 들어, 제2영역(123c')이 활성화 영역으로 결정될 경우, 전자 장치(100)는 상기 제2영역(123c')을 활성화하여, 제2영역(123c')을 통해 사용자 입력을 수신할 수 있다. 예컨대, 전자 장치(100)는 상기 제2영역(123c')을 통해 소정의 사용자 입력이 수신될 경우, 지정된 기능을 실행할 수 있으며, 이때 지정된 기능은, 전술한 제1영역(123c)이 활성화 영역으로 결정되어 제1영역(123c)을 통해 사용자 입력을 수신하였을 때 실행하는 기능과 동일한 기능에 해당할 수 있다. 예를 들어, 상기 제2영역(123c')이 활성화 영역으로 결정될 경우, 제1영역(123c)은 비활성화되고, 제1영역(123c)을 통한 사용자 입력은 무시될 수 있다.
다시 말해, 상기 제1영역(123c)과 제2영역(123c')은 어느 하나의 영역이 비활성화될 경우 다른 영역은 활성화되는 방식으로 동작하며, 서로의 기능이 대체될 수 있다.
다시, 도 3을 참조하면, 본 개시의 다양한 실시예에 따른 전자 장치(100)는, 상기 전자 장치(100)의 자세에 기반하여, 상기 전자 장치(100)가 수직 모드인 것으로 판단한 경우, 제1영역(123c)을 활성화 영역으로 지정할 수 있다. 예를 들어, 사용자는 상기 수직 모드로 동작하는 전자 장치(100)를 한 손으로 파지한 상태에서, 상기 파지한 손의 손가락으로 상기 제3입력부의 제1영역(123c)을 가압하여 신호를 입력할 수 있으며, 지정된 기능을 실행시킬 수 있다.
도 4를 참조하면, 상기 전자 장치(100)의 자세가 변경되어, 전자 장치(100)가 수직 모드에서 수평 모드로 전환되는 경우, 전자 장치(100)는 제1영역(123c)을 비활성화하고, 제2영역(123c')을 활성화 영역으로 지정할 수 있다. 예컨대, 사용자는 수평 모드에서 전자 장치(100)를 파지한 상태에서, 상기 파지한 손으로 제1영역(123c)을 가압하는 것은 용이하지 않을 수 있지만, 제2영역(123c')은 비교적 쉽게 가압하여 전자 장치(100)에 신호를 입력할 수 있다.
도시되지 않았지만, 일 실시예에 따른 전자 장치(100)는, 제1입력부(123a) 및 제2입력부(123b)의 경우에도 상기 전자 장치(100)의 자세에 기반하여 수평 모드로 전환되어 동작할 경우, 상기 제1입력부(123a) 및 제2입력부(123b)의 위치와 다른 위치에서 사용자 입력을 수신할 수 있도록, 사용자 입력부의 위치가 변경될 수 있다.
도 5a 내지 도 5c는 다양한 실시예에 따른 전자 장치의 전면도를 개략적으로 도시한 도면들이다. 예컨대, 도 5a는 본 개시의 일 실시예에 따른 전자 장치(100)의 제1영상출력영역의 면적이 축소된 상태의 전면도이며, 도 5b 및 도 5c는 각각 도 5a의 전자 장치(100)에서 제1영상출력영역의 면적이 확장된 상태의 전면도이다.
다양한 실시예에 따른 전자 장치(100)는, 전자 장치(100)의 제1면(예: 전면)을 통해 시인되고, 상기 제1면을 통해 영상을 출력하는 제1영상출력영역의 면적을 확장하거나 축소할 수 있는 플렉서블한 타입의 디스플레이(151)를 포함할 수 있다.
예를 들어, 디스플레이(151)(플렉서블 디스플레이)는, 일부 영역(예: 전자 장치(100)의 상측 또는 하측)에서 롤링, 폴딩, 또는 벤딩되고, 상기 롤링, 폴딩, 또는 벤딩되는 디스플레이 영역의 위치가 이동함에 따라, 전자 장치(100)의 제1면을 향하는 디스플레이(151)의 상기 제1영상출력영역의 면적이 확장되거나 축소될 수 있다.
일 실시예에 따르면, 전자 장치(100)는 상기 전자 장치의 제1면과 대향하는 제2면(예: 배면)을 향하는 디스플레이 영역(예: 제2영상출력영역)을 더 포함할 수 있다. 예를 들어, 제2영상출력영역은, 전자 장치(100)의 제2면(예: 배면)으로 영상을 출력하는 영역으로, 상기 제2면을 통해 외부에서 시인되는 디스플레이 영역을 포함할 수 있다.
도 5a 내지 도 5c를 참조하면, 제1영상출력영역은 고정 영역(151U)과 가변 영역(151X)을 포함할 수 있다. 예컨대, 상기 고정 영역(151U)은, 제1영상출력영역이 최소한으로 축소된 경우에도 전자 장치(100)의 제1면에서 시인되는 디스플레이(151) 영역에 대응할 수 있다. 예컨대, 상기 가변 영역(151X)은, 제1영상출력영역(151F)이 확장됨에 따라, 전자 장치(100)의 제1면에서 추가적으로 시인되는 디스플레이 영역에 대응할 수 있다. 상기 가변 영역(151X)의 면적은, 디스플레이(151)에서 롤링, 벤딩, 또는 폴딩되는 영역의 위치가 이동한 정도에 따라 변경될 수 있다. 한편 상기 고정 영역(151U)는 디스플레이(151)의 롤링, 벤딩, 또는 폴딩되는 영역의 위치 변경과 관계없이 일정할 수 있다.
다양한 실시예에 따른 전자 장치(100)는, 제1프레임(210) 및 상기 제1프레임(210)에 대해 상대 이동할 수 있는 제2프레임(220)을 포함하는 프레임을 포함할 수 있다. 예를 들어, 제2프레임(220)은 제1프레임(210)에 대해 슬라이딩 방식으로 선형 이동하여, 상기 제1프레임(210)과 멀어지거나 가까워지도록 동작할 수 있다.
상기 프레임은, 디스플레이(151)를 전반적으로 지지하는 역할을 할 수 있다. 예컨대, 제1프레임(210)과 제2프레임(220)은 디스플레이(151)가 축소된 상태에서는 서로 상당 부분이 중첩된 상태로 위치되며, 디스플레이(151)가 확장될 경우에는 제2프레임(220)이 제1프레임(210)에 대해 멀어지는 방향으로 이동하여 제1프레임(210)과 제2프레임(220) 간의 상기 중첩된 부분이 줄어들게 되고, 제1프레임(210)과 제2프레임(220) 중 어느 하나는 디스플레이(151)의 확장된 영역(예: 가변 영역(151X))을 추가적으로 지지할 수 있다. 상기 제1프레임(210)과 제2프레임(220) 간의 상대 이동은 상기 디스플레이의 확장 또는 축소 동작에 대응하여 이루어질 수 있다.
예컨대, 전자 장치(100)의 일면(예: 제1면)을 향하는 플렉서블 디스플레이(151)의 상기 제1영상출력영역의 면적은 제1프레임(210)과 제2프레임(220) 간의 상대 이동 정도에 따라, 확장 또는 축소될 수 있다. 예를 들어, 전자 장치(100)는, 제2프레임(220)이 제1프레임(210)에 대해 멀어지는 방향으로 슬라이딩 이동할 경우, 전자 장치(100)의 제2면(예: 배면)을 향하는 디스플레이(151)의 일부 영역(예: 제2영상출력영역)을 인출하여 상기 영역이 제1영상출력영역으로서 제1면을 향하도록 위치시킬 수 있으며, 제1영상출력영역의 면적은 확장될 수 있다. 예컨대, 전자 장치(100)는, 상기 제2프레임(220)이 제1프레임(210)과 가까워지는 방향으로 슬라이딩 이동할 경우, 제1면을 향하는 디스플레이(151)의 일부 영역(예: 제1영상출력영역)을 인입하여 제2영상출력영역으로서 상기 영역이 제2면을 향하도록 위치시킬 수 있고, 이에 따라 제1영상출력영역의 면적이 축소될 수 있다.
예를 들어, 전자 장치(100)는 디스플레이(151)의 롤링, 벤딩, 또는 폴딩되는 영역이 전자 장치(100)의 제1면을 기준으로 상측에 위치할 수 있다. 이 경우, 도 5b에 도시된 바와 같이 제2프레임(220)이 제1프레임(210)에 대해 멀어지는 방향으로 상대 이동 시, 전자 장치(100)의 상측으로부터 점차적으로 가변 영역(151X)이 인출됨에 따라 제1영상출력영역이 확장될 수 있다.
다른 예를 들어, 전자 장치(100)는, 상기 디스플레이(151)의 롤링, 벤딩, 또는 폴딩되는 영역이 전자 장치(100)의 제1면을 기준으로 하측에 위치할 수도 있다. 이 경우, 전자 장치(100)는 도 5c에 도시된 바와 같이, 제2프레임(220)이 제1프레임(210)에 대해 멀어지는 방향으로 상대 이동 시, 전자 장치(100)의 하측으로부터 점차적으로 가변 영역(151X)이 인출되는 방식으로 제1영상출력영역이 확장될 수 있다.
다양한 실시예에 따른 전자 장치(100)는 적어도 하나의 사용자 입력부(123)를 포함할 수 있다. 일 실시예에 따르면, 상기 적어도 하나의 사용자 입력부(123)는 제1프레임(210)의 측면부에 위치할 수 있다.
일 실시예에 따르면, 사용자 입력부(123)(예: 제1입력부(123a, 123a'), 제2입력부(123b, 123b'), 제3입력부(123c, 123c')) 중 적어도 일부는, 제어부(180)(컨트롤러)의 제어에 따라 선택적으로 사용자 입력을 수신할 수 있는 제1영역과 제2영역을 각각 포함할 수 있다. 일 예를 들어, 제1입력부(123a, 123a')는, 제1영역(123a)과 제2영역(123a')을 포함할 수 있으며, 각각의 영역은 상기 제어부(180)의 제어에 따라, 사용자 입력을 수신하는 기능이 활성화되거나 또는 비활성화될 수 있다. 예컨대, 상기 제1영역과 제2영역은 전자 장치(100)의 측부에서 동일 면 상에 배치될 수 있다.
도 6a 및 도 6b는 본 개시의 일 실시예에 따른 전자 장치(100)를 수직 모드에서 파지한 상태를 도시한 도면들이다. 도 6a는 디스플레이(151)의 제1영상출력영역이 축소된 전자 장치(100)를 파지한 상태에 해당하며, 도 6b는 디스플레이(151)의 상기 제1영상출력영역이 확장된 전자 장치(100)를 파지한 상태에 해당할 수 있다.
다양한 실시예에 따르면, 전자 장치(100)는, 전자 장치(100)의 자세 및 상기 전자 장치(100)의 디스플레이 영역(제1영상출력영역)의 확장 여부에 기반하여, 사용자 입력부(123)를 제어할 수 있다.
예를 들어, 전자 장치(100)는, 적어도 하나의 센서(예: 자이로 센서, 중력 센서)를 이용하여 전자 장치(100)의 자세에 관한 정보를 획득하고, 이에 기반하여 전자 장치(100)를 수직 모드 또는 수평 모드 중 어느 하나로 결정할 수 있다. 또한, 전자 장치(100)는, 적어도 하나의 센서(예: 광 센서)를 이용하여 상기 전자 장치(100)의 제1면(전면)을 향해 영상을 출력하는 디스플레이(151)의 영역(제1영상출력영역)의 면적 확장 여부(또는, 확장 정도)에 관한 정보를 획득하고, 상기 제1영상출력영역이 확장되었는지 여부를 판단할 수 있다.
도 6a 및 도 6b를 참조하면, 다양한 실시예에 따른 전자 장치(100)는 전자 장치(100)의 자세에 기반하여 전자 장치(100)를 수직 모드로 작동시킬 경우, 사용자 입력부(123)의 제1영역(123a, 123b, 123c)과 제2영역(123a', 123b', 123c') 중 제1영역(123a, 123b, 123c)을 활성화 영역으로 결정하고 제2영역(123a', 123b', 123c')을 비활성화할 수 있다.
다양한 실시예에 따른 전자 장치(100)는, 전자 장치(100)가 수직 모드로 작동하는 경우, 디스플레이(151)의 제1영상출력영역의 확장 여부와 관계없이, 제1영역을 활성화 영역으로 결정할 수 있다.
예컨대, 도 6a 및 도 6b에 도시된 바와 같이, 전자 장치(100)가 수직 모드로 작동할 경우, 제1영상출력영역의 확장 여부와 관계없이, 사용자는 한 손으로 파지한 상태에서 파지한 손의 손가락을 이용하여 동일한 영역(제1영역)의 사용자 입력부(123)에 신호를 입력할 수 있다.
도 7a 및 도 7b는 본 개시의 일 실시예에 따른 전자 장치(100)를 수평 모드에서 파지한 상태를 도시한 도면들이다. 도 7a는 디스플레이(151)의 제1영상출력영역이 축소된 전자 장치(100)를 파지한 상태에 해당하며, 도 7b는 디스플레이(151)의 상기 제1영상출력영역이 확장된 전자 장치(100)를 파지한 상태에 해당할 수 있다.
도 7a 및 도 7b를 참조하면, 다양한 실시예에 따른 전자 장치(100)는, 전자 장치(100)의 자세 및 상기 전자 장치(100)의 디스플레이 영역(제1영상출력영역)의 확장 여부에 기반하여, 사용자 입력부의 입력 위치를 제어할 수 있다.
예를 들어, 상기 전자 장치(100)가 상기 전자 장치(100)의 자세에 기반하여 수평 모드로 작동할 경우, 전자 장치(100)는 제1영상출력영역의 면적에 기반하여 사용자 입력을 수신할 영역(예: 활성화 영역)을 결정할 수 있다.
예를 들어, 전자 장치(100)는 도 7a에 도시된 것과 같이, 전자 장치(100)의 디스플레이(151)의 제1영상출력영역이 축소된 상태에서, 수평 모드로서 동작할 경우, 사용자 입력부(123) 중 제1영역(123a, 123b, 123c)을 활성화 영역으로 지정하고, 제2영역(123a', 123b', 123c')을 비활성화할 수 있다. 예컨대, 사용자는 상기 전자 장치(100)를 한 손으로 파지한 상태에서 상기 활성화된 제1영역(123a, 123b, 123c)을 손가락으로 가압함에 따라 신호를 입력할 수 있으며, 전자 장치(100)는 상기 제1영역(123a, 123b, 123c)을 통해 수신한 사용자 입력에 기반하여, 지정된 기능을 실행할 수 있다.
예를 들어, 전자 장치(100)는 도 7b에 도시된 바와 같이, 전자 장치(100)의 디스플레이(151)의 제1영상출력영역이 확장된 상태에서, 수평 모드로서 동작할 경우, 사용자 입력부(123) 중 제2영역(123a', 123b', 123c') 을 활성화 영역으로 지정하고, 제1영역(123a, 123b, 123c)을 비활성화할 수 있다.
예컨대, 일 실시예에서, 제2영역(123a', 123b', 123c')은 제1프레임(210)의 측면 상에서, 제1영역(123a, 123b, 123c)보다 제2프레임(220)에 인접하는 위치에 배치될 수 있다. 예를 들어, 사용자는 상기 전자 장치(100)를 한 손으로 파지한 상태에서 파지한 손가락을 이용하여 제2영역(123a', 123b', 123c')을 통해 신호를 입력할 수 있다. 전자 장치(100)는 상기 제2영역(123a', 123b', 123c')을 통해 수신한 사용자 입력에 기반하여, 지정된 기능을 실행할 수 있다.
예를 들어, 전자 장치(100)는 전자 장치(100)가 수직 모드로 작동하거나, 수평 모드로 작동하더라도 제1영상출력영역이 축소된 상태인 경우에는 제1영역(123a, 123b, 123c)을 통해 사용자 입력을 수신할 수 있고, 수평 모드로 작동하는 전자 장치(100)의 제1영상출력영역이 확장된 경우에는 제2영역(123a', 123b', 123c')을 통해 사용자 입력을 수신할 수 있다.
다양한 실시예에 따른 전자 장치(100)는 전자 장치(100)의 자세 또는 전자 장치(100)의 디스플레이(151) 형태 변경에 기초하여 전자 장치(100)의 사용자 입력부(123)의 위치를 가변하도록 제어함으로써, 사용자 입력이 보다 용이하도록 하는 개선된 사용성을 제공할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 활성화 영역으로 지정된 사용자 입력부(123)의 일 영역을 통해 사용자 입력이 수신될 경우, 상기 활성화 영역의 위치에 관계없이 미리 설정된 기능을 실행할 수 있다.
예를 들어, 전자 장치(100)는 활성화 영역에 대한 포스 터치 입력, 더블 터치, 제스처 입력 중 적어도 하나의 입력에 대응하여 상기 지정된 기능을 실행할 수 있다. 예를 들어, 전자 장치(100)는 상기 활성화 영역 중 복수의 영역(예: 123a 및 123c, 또는 123a' 및 123c')에 대한 동시 입력에 대응하여 상기 지정된 기능을 실행할 수 있다. 일 실시예에 따르면 상기 기능은, 디스플레이(151)의 제1영상출력영역에 대한 확장 또는 축소와 관련된 명령, 음향 신호의 세기 조절 명령, 또는 전자 장치(100)의 슬립 모드와 웨이크-업 모드 간 전환 명령 중 적어도 하나를 포함할 수 있다.
또한, 도시되지 않았지만 다양한 실시예에 따른 전자 장치(100)는, 사용자의 파지 영역에 기초하여, 상기 사용자 입력부(123)의 활성화 영역을 제어할 수도 있다. 예컨대, 전자 장치(100)는 적어도 하나의 센서를 이용하여 파지 영역과 관련된 정보를 획득하고, 상기 정보에 기초하여 전자 장치(100)를 왼손으로 파지하였는지 또는 오른손으로 파지하였는지 여부를 식별할 수 있다. 예컨대, 전자 장치(1000는 전자 장치(100)가 왼손으로 파지된 경우 사용자 입력부(123)의 제1영역을 활성화 영역으로 결정하고, 전자 장치(100)가 오른손으로 파지된 경우에는 사용자 입력부(123)의 제2영역을 활성화 영역으로 결정할 수 있다. 예컨대, 전자 장치(100)는 전자 장치(100)의 자세, 전자 장치(100)의 파지 영역, 디스플레이의 형태 변경 중 적어도 하나에 기반하여 상기 사용자 입력부를 제어할 수 있다.
도 8a 내지 도8c는 본 개시의 일 실시예에 따른 전자 장치(100)의 입력부를 개략적으로 도시한 도면들이다.
도 8a 내지 도 8c를 참조하면, 다양한 실시예에 따른 전자 장치(100)는 입력부로서 스트레인 게이지(300)를 포함할 수 있다.
예를 들어, 스트레인 게이지(300)는, 전자 장치(100)의 측면에 대향하여 배치되는 제1부분(301)과 전자 장치(100)의 전면과 배면 사이에 배치되는 제2부분(302)을 포함할 수 있다. 예컨대, 상기 제1부분(301)은 사용자 입력을 수신할 수 있는 영역(310)을 포함할 수 있다. 예컨대, 상기 제2부분(302)은 전자 장치(100)의 제어부(180)와 전기적으로 연결된 인쇄회로기판과 연결되어, 제어부(180)로 제1부분(301)을 통해 획득한 입력 신호를 전달할 수 있다.
예를 들어, 스트레인 게이지(300)는 상기 사용자 입력 수신 영역(310)에 대한 가압 정보(예: 각 영역 별 압력의 세기)를 수신하고, 상기 정보에 기반하여 사용자 입력이 수신되는지 여부를 판단할 수 있다. 예컨대, 스트레인 게이지(300)는, 일 영역에 압력이 인가되었을 때 발생하는 길이 변화 및 그에 따른 저항 변화에 기초하여, 상기 가압 정보를 획득할 수 있다. 예컨대, 상기 스트레인 게이지(300)는, 상기 압력이 인가된 위치에 관한 정보 및 압력의 세기에 관한 정보를 획득할 수 있다.
본 개시의 다양한 실시예에 따르면, 스트레인 게이지(300)의 상기 사용자 입력 수신 영역(310)은 상호 이격된 복수의 영역들로 구분될 수 있다. 예컨대, 전자 장치(10)는, 상기 복수의 영역들 사이의 이격된 공간(예: 비활성화 영역)에 발생하는 가압 정보를 무시함으로써, 상기 이격된 복수의 영역들 중 사용자 입력이 어느 영역에 수신되었는지 식별할 수 있다.
예컨대, 일 실시예에 따르면, 스트레인 게이지(300)는, 도 8a 내지 도 8c에 도시된 바와 같이, 소정 간격으로 이격 배치된 A영역(312), B영역(314), C영역(316), 및 D영역(318)을 포함할 수 있다. 예컨대, 상기 A영역(312) 내지 D영역(318)은, 각각 도 5a에 도시된 123b, 123a, 123b', 123a'에 각각 대응될 수 있다.
도 8a에서는 상기 A영역(312) 내지 D영역(318)이 각각 동일한 이격 간격(WG)을 갖도록 배치된 구조를 도시하였으나, 이러한 이격 간격과 배치 구조는 다양하게 설계 변경될 수 있음은 물론이다. 예를 들어, 상기 B영역(314)과 C영역(316) 사이의 간격은 다른 영역들 사이의 간격보다 더 큰 이격 간격을 가질 수 있다.
다양한 실시예에 따르면, 전자 장치(100)(예: 제어부(180))는, 상기 스트레인 게이지(300)의 동작을 제어할 수 있다. 예컨대, 전자 장치(100)는, 전자 장치(100)의 자세 또는 디스플레이(151)의 제1영상출력영역 확장 여부에 기반하여, 상기 스트레인 게이지의 구분된 영역들 중 일부를 활성화하고, 다른 영역은 비활성화할 수 있다.
예를 들어, 전자 장치(100)는, 도 8b에 도시된 것과 같이, A영역(312)과 B영역(314)을 활성화하고, C영역(316)과 D영역(318)을 비활성화하도록 상기 스트레인 게이지(300)를 제어할 수 있다. 반대로, 전자 장치(100)는, 도 8c에 도시된 것과 같이, A영역(312)과 B영역(314)을 비활성화하고, C영역(316)과 D영역(318)을 활성화하도록 상기 스트레인 게이지(300)를 제어할 수 있다.
예를 들어, A영역(312)과 B영역(314)이 활성화되고, C영역(316)과 D영역(318)이 비활성된 경우, A영역(312)을 통해 수신한 사용자 입력에 대응하는 제1기능은 B영역(314)을 통해 수신한 사용자 입력에 대응하는 제2기능과 상이할 수 있다. 한편, 전자 장치(100)의 자세 또는 디스플레이 영역의 확장 중 적어도 하나에 따라, A영역(312)과 B영역(314)이 비활성화되고, C영역(316)과 D영역(318)이 활성화된 경우, 상기 C영역(316)을 통해 수신한 사용자 입력에 대응하는 기능은 상기 A영역(312)을 통해 수신한 사용자 입력에 대응하는 제1기능과 동일할 수 있으며, D영역(318)을 통해 수신한 사용자 입력에 대응하는 기능은, 상기 B영역(314)을 통해 수신한 사용자 입력에 대응하는 제2기능과 동일할 수 있다.
또 다른 실시예에 따르면, 전자 장치(100)는, 상기 전자 장치(100)의 자세 또는 디스플레이(151)의 제1영상출력영역 확장 여부에 기반하여, A영역(312) 내지 D영역(318) 중 어느 하나의 영역만을 활성화 영역으로 결정하고, 상기 활성화 영역을 통해 사용자 입력을 수신할 수 있다. 예컨대, 전자 장치(100)는, 상기 전자 장치(100)가 수평 모드로 작동하고, 제1영상출력영역이 최소한으로 축소된 경우, A영역(312)을 활성화 영역으로 결정할 수 있다. 또한, 상기 전자 장치(100)가 수평 모드로 작동하며, 상기 제1영상출력영역이 최대한으로 확장된 경우에는, D영역(318)을 활성화 영역으로 결정할 수 있으며, 지정된 크기만큼 제1영상출력영역이 일부 확장된 경우에는 B영역(314) 또는 C영역(316) 중 어느 하나를 활성화 영역으로 결정할 수 있다.
일 실시예에 따르면, 전자 장치(100)는, 상기 스트레인 게이지(300)의 복수의 영역들 중 활성화 영역과 그 외의 영역을 구분하여 제어하기 위한 스위칭 모듈을 포함할 수 있다. 상기 스위칭 모듈은 SPDT(single pole double thorow) 타입의 스위치들을 포함할 수 있다. 예컨대, 전자 장치(100)는, 도 8b의 상태에서 도 8c의 상태로 전환될 때, A영역(312)과 연결된 스위치를 C영역(316)으로 연결하고, B영역(314)과 연결된 스위치를 D영역(318)으로 연결하도록 스위칭 모듈을 제어할 수 있다. 반대로, 도 8c의 상태에서 도 8b의 상태로 전환될 때, 전자 장치(100)는, C영역(316)과 연결된 스위치를 A영역(312)과 연결하고, D영역(318)과 연결된 스위치를 B영역(314)로 연결하도록 스위칭 모듈을 제어할 수 있다.
도 9a 및 도 9b는 본 개시의 일 실시예에 따른 전자 장치(100)의 입력부를 설명하기 위한 도면들이다.
다양한 실시예에 따르면, 전자 장치(100)는, 입력부로서 하이브리드 초음파 센서를 포함할 수 있다.
상기 하이브리드 초음파 센서는, 도 8a 내지 도 8c를 참조하여 설명한 스트레인 게이지(300)의 기능을 대체하는 구성으로, 사용자 입력 정보를 획득할 수 있다. 도 9a는 상기 전자 장치(100)의 측면에 대향하여 배치되는 하이브리드 초음파 센서의 일 부분(401)을 개략적으로 도시한 도면이다.
도 9a에 도시된 것과 같이, 하이브리드 초음파 센서는, 복수의 영역들(412, 414, 416, 418)에 대응하여 배치된 복수의 센서 셋들을 포함할 수 있다. 도 9b는 하이브리드 초음파 센서의 특정 센서 셋을 보다 구체적으로 도시한 도면이다.
도 9a 및 도 9b를 참조하면, 일 실시예에 따른 하이브리드 초음파 센서는, 복수의 영역들마다 구비된 각각의 센서 셋마다, 스트레인 게이지 센서(421), 제1피에조 센서(422), 및 제2피에조 센서(423)을 포함할 수 있다.
예를 들어, 스트레인 게이지 센서(421)는, 상기 센서 셋이 위치하는 영역에 외부 객체(예: 손가락)에 대한 가압이 발생할 경우, 상기 가압된 정도(압력의 세기)에 관한 정보를 획득할 수 있다.
예를 들어, 제1피에조 센서(422)와 제2피에조 센서(423)는, 상기 제1피에조 센서(422)와 상기 제2피에조 센서(423) 사이의 공간에서 SAW(surface acoustic wave)와 관련된 정보를 획득함으로써, 상기 센서 셋이 위치하는 영역에 외부 객체에 대한 가압이 발생할 경우 해당 가압이 발생한 위치에 관한 정보를 획득할 수 있다.
일 실시예에 따른 전자 장치(100)는, 상기 제1피에조 센서(422) 및 제2피에조 센서(423)를 이용하여 사용자 입력의 위치에 관한 정보를 획득하고, 상기 제1피에조 센서(422)와 제2피에조 센서(423) 사이의 스트레인 게이지 센서(421)를 이용하여 사용자 입력의 세기 정보를 획득할 수 있으며, 이들 정보를 조합하여, 하이브리드 초음파 센서의 복수의 영역들(412, 414, 416, 418) 중 일 영역에서 사용자 입력이 수신되었는지 여부를 판단할 수 있다.
한편, 상기 하이브리드 초음파 센서에 포함되는 복수의 영역들은, 전술한 바와 같이 전자 장치(100)의 자세 또는 디스플레이(151)의 제1영상출력영역의 확장 여부(또는 확장 정도)에 기반하여 선택적으로 활성화되거나 비활성화될 수 있다.
도 10a 및 도 10b는 본 개시의 또 다른 실시예에 따른 전자 장치(100)의 입력부를 설명하기 위한 도면이다.
도 10a 및 도 10b를 참조하면, 일 실시예에 따른 전자 장치(100)는 입력부로서, MEMS 하이브리드 포스 센서를 포함할 수 있다.
예를 들어, 상기 MEMS 하이브리드 포스 센서는, 제어부(180)와 연결되는 인쇄회로기판(530) 중 전자 장치(100)의 측면에 대향하여 배치되는 부분(501)의 상에 상호 이격된 복수의 영역들(512, 514, 516, 518)을 포함할 수 있다. 예컨대, 상기 인쇄회로기판(530) 중 다른 부분(502)은 전자 장치(100)의 전면과 배면 사이에 개재될 수 있다.
상기 MEMS 하이브리드 포스 센서에 포함된 복수의 영역들(512, 514, 516, 518)은 MEMS 센서(520)를 각각 포함할 수 있다. 예를 들어, 상기 MEMS 센서(520)는 인쇄회로기판에 일체형으로 실장될 수 있다.
예를 들어, 상기 MEMS 센서(520)는, 상기 전자 장치(100)의 측면을 통해 외부로 초음파를 발생시키고, 외부 객체에 반사된 초음파 정보를 획득함으로써, 사용자 입력을 수신할 수 있다. 예컨대, 상기 MEMS 센서(520)는, 전자 장치(100)의 측면을 구성하는 프레임(예: 제1프레임(210))의 베젤(또는 범퍼)(210S)에 부착되거나 장착될 수 있다.
일 실시예에 따르면, 전자 장치(100)는 상기 MEMS 하이브리드 포스 센서의 복수의 영역들(512, 514, 516, 518) 중 일부를 활성화 영역으로 결정하고, 상기 활성화 영역을 통해 사용자 입력을 수신할 수 있다.
도 11a 및 도 11b는 본 개시의 일 실시예에 따른 전자 장치의 측단면도이다.
도 11a 및 도 11b를 참조하면, 다양한 실시예에 따른 전자 장치(100)는, 제1방향으로 향하는 제1면(예: 전면)과 상기 제1방향과 반대 방향으로 향하는 제2면(예: 배면) 사이의 일 지점에서 상기 제1면에 대향하도록 배치된 적어도 하나의 센서(600)(예: 광 센서)를 포함할 수 있다.
도 5a 내지 도 5c를 참조하여 설명한 바와 같이, 다양한 실시예에 따른 전자 장치(100)는, 일 영역에서 롤링, 폴딩, 또는 벤딩되는 디스플레이(151)를 포함할 수 있으며, 상기 디스플레이(151)는, 롤링, 폴딩, 또는 벤딩되는 영역이 이동함에 따라, 제1면을 향하는 디스플레이 영역(제1영상출력영역)의 면적이 가변할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 센서(600)는, 제1면을 통해 외부로 광을 조사하고, 외부로부터 반사되어 수신된 광에 관한 정보를 수신하여 상기 제1영상출력영역의 확장 여부(또는 확장 정도)에 대해 식별할 수 있다.
예를 들어, 전자 장치(100)는, 상기 디스플레이(151)의 제1영상출력영역의 면적 변경에 대응하여, 제1프레임(210)에 대해 슬라이딩 이동하는 제2프레임(220)을 포함할 수 있으며, 상기 제2프레임(220)의 이동 및 상기 디스플레이(151)의 형태 변경에 따라, 상기 적어도 하나의 센서(600)로부터 각각 상이한 정보를 획득할 수 있다.
전자 장치(100)는 상기 적어도 하나의 센서(600)를 이용하여, 제1프레임(210)과 제2프레임(220) 간의 상대 이동과 관련된 정보(예: 이동 방향, 이동 속도) 및/또는 상기 제1영상출력영역의 면적 변경과 관련된 정보를 획득할 수 있으며, 상기 정보에 기반하여 사용자 입력부를 제어할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 명세서에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (21)

  1. 전자 장치에 있어서,
    상기 전자 장치의 전면을 통해 영상을 출력하는 디스플레이;
    상기 전자 장치의 측면에 대향하여 배치되고, 제1영역 및 제2영역을 포함하는, 입력부; 및
    컨트롤러를 포함하고, 상기 컨트롤러는,
    상기 전자 장치의 자세(posture)에 기반하여 상기 제1영역 또는 상기 제2영역 중 어느 하나를 활성화 영역으로 결정하고,
    상기 활성화 영역을 통해 사용자 입력을 수신하도록 설정된, 전자 장치.
  2. 제 1 항에 있어서,
    적어도 하나의 센서를 더 포함하고,
    상기 컨트롤러는,
    상기 적어도 하나의 센서를 이용하여 상기 전자 장치의 자세에 관한 정보를 획득하고,
    상기 획득한 정보에 기초하여 상기 전자 장치를 수평 모드(landscape mode) 또는 수직 모드(portrait mode) 중 어느 하나로 결정하도록 설정된, 전자 장치.
  3. 제 2 항에 있어서,
    상기 컨트롤러는,
    상기 결정된 모드에 대응하여, 상기 디스플레이의 영상 출력 방향(orientation) 및 상기 입력부의 활성화 영역을 결정하도록 설정된, 전자 장치.
  4. 제 3 항에 있어서,
    상기 컨트롤러는,
    상기 전자 장치가 상기 수평 모드인 경우 상기 제1영역을 상기 활성화 영역으로 결정하고,
    상기 전자 장치가 상기 수직 모드인 경우 상기 제2영역을 상기 활성화 영역으로 결정하도록 설정된, 전자 장치.
  5. 제 1 항에 있어서,
    상기 컨트롤러는,
    상기 제1영역이 상기 활성화 영역으로 결정된 경우, 상기 제2영역을 비활성화하고,
    상기 제2영역이 활성화 영역으로 결정된 경우, 상기 제1영역을 비활성화하도록 설정된, 전자 장치.
  6. 제 1 항에 있어서,
    상기 컨트롤러는,
    상기 결정된 활성화 영역을 통해 사용자 입력이 수신되는 것에 기반하여, 지정된 기능을 실행하도록 설정된, 전자 장치.
  7. 제 1 항에 있어서,
    상기 입력부는, 스트레인 게이지를 포함하고,
    상기 스트레인 게이지는, 상기 제1영역, 상기 제2영역, 및 상기 제1영역과 상기 제2영역 사이의 비활성화 영역을 포함하는, 전자 장치.
  8. 전자 장치에 있어서,
    제1프레임 및 상기 제1프레임에 대해 슬라이딩 이동 가능하도록 배치된 제2프레임을 포함하는, 프레임;
    상기 프레임에 의해 지지되며, 상기 제1프레임과 상기 제2프레임 간의 상대 이동에 대응하여 상기 전자 장치의 전면을 통해 영상을 출력하는 제1영상출력영역의 면적이 가변하는, 플렉서블 디스플레이;
    제1영역 및 제2영역을 포함하는, 입력부;
    적어도 하나의 센서; 및
    컨트롤러를 포함하고, 상기 컨트롤러는,
    상기 적어도 하나의 센서를 이용하여, 상기 전자 장치의 자세 또는 상기 제1영상출력영역의 면적 중 적어도 하나에 관한 정보를 획득하고,
    상기 획득한 정보에 기반하여 상기 제1영역 또는 상기 제2영역 중 어느 하나를 상기 입력부의 활성화 영역으로 결정하고,
    상기 활성화 영역을 통해 사용자 입력을 수신하도록 설정된, 전자 장치.
  9. 제 8 항에 있어서,
    상기 컨트롤러는,
    상기 전자 장치의 자세에 관한 정보에 기반하여, 상기 전자 장치를 수평 모드 또는 수직 모드 중 어느 하나로 결정하고,
    상기 결정된 모드에 기초하여 상기 제1영상출력영역의 영상 출력 방향 및 상기 입력부의 활성화 영역을 결정하는, 전자 장치.
  10. 제 9 항에 있어서,
    상기 컨트롤러는,
    상기 전자 장치가 상기 수직 모드인 경우, 상기 제1영역을 상기 활성화 영역으로 결정하고,
    상기 전자 장치가 상기 수평 모드이고 상기 제1영상출력영역의 면적이 지정된 크기 이상인 경우, 상기 제2영역을 상기 활성화 영역으로 결정하는, 전자 장치.
  11. 제 10 항에 있어서,
    상기 컨트롤러는,
    상기 전자 장치가 상기 수평 모드이고 상기 제1영상출력영역의 면적이 지정된 크기 미만인 경우, 상기 제1영역을 상기 활성화 영역으로 결정하는, 전자 장치.
  12. 제 10 항에 있어서,
    상기 제1영역 및 상기 제2영역은, 상기 제1프레임의 제1측면에 대향하도록 배치되고,
    상기 제1측면과 수직하는 상기 제2프레임의 제2측면을 기준으로 상기 제2영역이 상기 제1영역보다 더 가깝게 위치하는, 전자 장치.
  13. 제 12 항에 있어서,
    상기 컨트롤러는,
    상기 전자 장치의 자세에 기초하여, 상기 제1측면이 상기 전자 장치의 상부에 위치하는 것으로 판단할 경우, 상기 전자 장치를 상기 수평 모드로 결정하고, 상기 제2측면이 상기 전자 장치의 상부에 위치하는 것으로 판단할 경우, 상기 전자 장치를 수직 모드로 결정하는, 전자 장치.
  14. 제 8 항에 있어서,
    상기 컨트롤러는,
    상기 제1영역이 상기 활성화 영역으로 결정된 경우, 상기 제2영역을 비활성화하고, 상기 제2영역이 상기 활성화 영역으로 결정된 경우, 상기 제1영역을 비활성화하는, 전자 장치.
  15. 제 8 항에 있어서,
    상기 입력부는,
    압력 센서 또는 초음파 센서 중 적어도 하나를 포함하는, 전자 장치.
  16. 제 8 항에 있어서,
    상기 입력부는, 스트레인 게이지를 포함하고,
    상기 스트레인 게이지는, 상기 제1영역, 상기 제2영역, 및 상기 제1영역과 상기 제2영역 사이의 비활성화 영역을 포함하는, 전자 장치.
  17. 제 8 항에 있어서,
    상기 입력부는,
    상기 제1영역 및 상기 제2영역에 대응하여 배치되는 복수의 센서 셋들을 포함하고,
    상기 센서 셋은, 스트레인 게이지 및 상기 스트레인 게이지를 사이에 두고 배치된 복수의 피에조 센서들을 포함하는, 전자 장치.
  18. 제 8 항에 있어서,
    상기 제1영역 및 상기 제2영역은 동일 면 상에 이격되어 위치하는, 전자 장치.
  19. 제 8 항에 있어서,
    상기 입력부는,
    동일 면 상에서 순서대로 소정 간격 이격 배치된 제1영역, 제2영역, 제3영역, 및 제4영역을 포함하고,
    상기 컨트롤러는,
    상기 획득한 정보에 기반하여, 상기 제1영역과 상기 제3영역을 활성화 영역으로 결정하거나, 또는 상기 제2영역과 상기 제4영역을 활성화 영역으로 결정하는, 전자 장치.
  20. 제 8 항에 있어서,
    상기 입력부는,
    압력 센서 또는 초음파 센서 중 적어도 하나를 포함하고,
    상기 압력 센서 또는 상기 초음파 센서 중 적어도 하나는, 상기 컨트롤러와 전기적으로 연결된 인쇄회로기판에 실장되는, 전자 장치.
  21. 제 8 항에 있어서,
    상기 적어도 하나의 센서는,
    자이로 센서 또는 광 센서 중 적어도 하나를 포함하는, 전자 장치.
PCT/KR2020/003615 2020-03-17 2020-03-17 전자 장치 WO2021187630A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2020/003615 WO2021187630A1 (ko) 2020-03-17 2020-03-17 전자 장치
US16/880,888 US11189251B2 (en) 2020-03-17 2020-05-21 Electronic apparatus
EP20180017.4A EP3882756B1 (en) 2020-03-17 2020-06-15 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/003615 WO2021187630A1 (ko) 2020-03-17 2020-03-17 전자 장치

Publications (1)

Publication Number Publication Date
WO2021187630A1 true WO2021187630A1 (ko) 2021-09-23

Family

ID=71096596

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/003615 WO2021187630A1 (ko) 2020-03-17 2020-03-17 전자 장치

Country Status (3)

Country Link
US (1) US11189251B2 (ko)
EP (1) EP3882756B1 (ko)
WO (1) WO2021187630A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11422673B2 (en) * 2020-06-12 2022-08-23 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11907516B2 (en) * 2022-04-16 2024-02-20 Samsung Electronics Co., Ltd. Electronic device, method, and non-transitory computer readable storage medium for identifying set of information according to change in size of display area of flexible display

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254595A (ja) * 1997-03-14 1998-09-25 Sony Corp 携帯端末装置
JP2011180943A (ja) * 2010-03-03 2011-09-15 Panasonic Corp 情報処理端末
KR20130127649A (ko) * 2012-05-15 2013-11-25 삼성전자주식회사 표시부에 출력되는 입력 영역 운용 방법 및 이를 지원하는 단말기
KR20140099004A (ko) * 2013-02-01 2014-08-11 엘지전자 주식회사 이동 단말기
KR20200007366A (ko) * 2018-07-13 2020-01-22 엘지디스플레이 주식회사 플렉서블 디스플레이 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008028499A1 (en) * 2006-09-05 2008-03-13 Nokia Corporation Mobile electronic device with competing input devices
KR20120079493A (ko) * 2010-12-23 2012-07-13 주식회사 팬택 휴대 단말기
US8723824B2 (en) * 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
KR20160031363A (ko) * 2014-09-12 2016-03-22 삼성전자주식회사 유연성 디스플레이 소자를 포함하는 전자 장치
KR20160089164A (ko) * 2015-01-19 2016-07-27 삼성전자주식회사 플렉서블 디바이스의 디스플레이의 형상을 제어하는 방법 및 플렉서블 디바이스

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254595A (ja) * 1997-03-14 1998-09-25 Sony Corp 携帯端末装置
JP2011180943A (ja) * 2010-03-03 2011-09-15 Panasonic Corp 情報処理端末
KR20130127649A (ko) * 2012-05-15 2013-11-25 삼성전자주식회사 표시부에 출력되는 입력 영역 운용 방법 및 이를 지원하는 단말기
KR20140099004A (ko) * 2013-02-01 2014-08-11 엘지전자 주식회사 이동 단말기
KR20200007366A (ko) * 2018-07-13 2020-01-22 엘지디스플레이 주식회사 플렉서블 디스플레이 장치

Also Published As

Publication number Publication date
US20210295803A1 (en) 2021-09-23
EP3882756B1 (en) 2023-01-11
EP3882756A1 (en) 2021-09-22
US11189251B2 (en) 2021-11-30

Similar Documents

Publication Publication Date Title
WO2021137319A1 (ko) 애플리케이션과 관련된 컨텐츠를 표시하는 전자 장치 및 그 제어 방법
WO2019209041A1 (ko) 플렉서블 디스플레이 및 이를 구비하는 전자 장치
WO2020013528A1 (ko) 플렉서블 디스플레이 및 이를 포함하는 전자 장치
WO2020054883A1 (ko) 이동 단말기
WO2021149840A1 (ko) 콘텐츠를 표시하는 전자 장치 및 그 제어 방법
WO2021157757A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2021080041A1 (ko) 스피커 모듈을 포함하는 전자 장치
WO2016167437A1 (ko) 이동 단말기
WO2016190477A1 (ko) 이동 단말기
WO2018101508A1 (ko) 이동 단말기
WO2015190668A1 (ko) 이동 단말기
WO2021187630A1 (ko) 전자 장치
WO2016204338A1 (ko) 전자디바이스
WO2018135675A1 (ko) 전자장치
WO2017131331A1 (ko) 이동 단말기
WO2017030236A1 (ko) 이동 단말기 및 이의 제어방법
WO2022030804A1 (ko) 화면 회전을 제어하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2020130199A1 (ko) 이동 단말기
WO2021235569A1 (ko) 전자 장치
WO2021137321A1 (ko) 컨텐츠를 표시하는 전자 장치 및 그 제어 방법
WO2021149844A1 (ko) 콘텐츠를 표시하는 전자 장치 및 그 제어 방법
WO2021132743A1 (ko) 애플리케이션과 관련된 컨텐츠를 표시하는 전자 장치 및 그 제어 방법
WO2021201309A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2018079869A1 (ko) 이동 단말기
WO2018131747A1 (ko) 이동 단말기 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20925322

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20925322

Country of ref document: EP

Kind code of ref document: A1