WO2023146091A1 - Electronic device having flexible display - Google Patents

Electronic device having flexible display Download PDF

Info

Publication number
WO2023146091A1
WO2023146091A1 PCT/KR2022/018584 KR2022018584W WO2023146091A1 WO 2023146091 A1 WO2023146091 A1 WO 2023146091A1 KR 2022018584 W KR2022018584 W KR 2022018584W WO 2023146091 A1 WO2023146091 A1 WO 2023146091A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
module
direction information
display
graphic element
Prior art date
Application number
PCT/KR2022/018584
Other languages
French (fr)
Korean (ko)
Inventor
곽명훈
김양욱
박지혜
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220021094A external-priority patent/KR20230114658A/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP22924344.9A priority Critical patent/EP4361783A1/en
Priority to US18/109,468 priority patent/US20230260437A1/en
Publication of WO2023146091A1 publication Critical patent/WO2023146091A1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/03Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays
    • G09G3/035Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays for flexible display surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/028Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/068Adjustment of display parameters for control of viewing angle adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Definitions

  • Certain example embodiments relate to an electronic device having a flexible display.
  • the mobile terminal may display the location of an object based on the azimuth angle calculated through short-range positioning.
  • Short-range positioning is performed using at least one of ultra-wideband (UWB) communication, Real Time Location System (RTLS) based on Bluetooth (BT) communication, time of flight (ToF) sensor, acceleration sensor, geomagnetic sensor, and/or camera. It can be calculated using captured image analysis.
  • UWB ultra-wideband
  • RTLS Real Time Location System
  • ToF time of flight
  • acceleration sensor acceleration sensor
  • geomagnetic sensor geomagnetic sensor
  • a point serving as a reference for display may move or a direction indicating a location of an object may change due to a change in screen size.
  • a display error may occur when the position of an object is displayed based on the previously calculated azimuth.
  • the electronic device may perform display correction of the position of the object according to a change in size of the display and/or movement of the sensor module.
  • An electronic device includes at least one sensor module for calculating direction information, a display module capable of changing the size of a viewable region from one side, and a display for calculating the size of the viewable region.
  • At least one processor comprising a length detection module, a memory storing computer-executable instructions, and processing circuitry for accessing the memory and executing the instructions;
  • the processor When the instructions are executed, the processor outputs, to the display module, a first graphic element corresponding to first direction information calculated based on a first sensing value received from the at least one sensor module, and
  • a change in the relative position between the outputting first graphic element and the at least one sensor module is monitored, and when it is determined that the relative position has changed, the at least one sensor module Correcting the second direction information calculated based on the second sensing value received from the relative position based on the change in the relative position, and outputting a second graphic element corresponding to the corrected second direction information to the display module.
  • a method implemented by a processor includes an operation of outputting a first graphic element corresponding to first direction information calculated based on a first sensing value received from at least one sensor module to a display module; In response to the occurrence of an event for changing the size of the visible area of the display module, monitoring a change in the relative position between the outputting first graphic element and the at least one sensor module, determining that the relative position has changed , correcting the second direction information calculated based on the second sensing value received from the at least one sensor module based on the change in the relative position, and performing a second direction corresponding to the corrected second direction information.
  • An operation of outputting a graphic element to the display module may be included.
  • the electronic device can accurately display and deliver information about the position of an object in an application screen to a user without error even when the size of the visible area of the display module is changed.
  • Fig. 1 is a block diagram of an electronic device in a network environment according to example embodiments.
  • 2A and 2B are front perspective views of an electronic device showing a closed state and an open state according to an exemplary embodiment.
  • 3A and 3B are rear perspective views of an electronic device showing a closed state and an open state according to an exemplary embodiment of the present invention.
  • FIGS. 4A-4F show examples of a display length detection module according to an illustrative embodiment.
  • FIG. 5 is a flowchart illustrating a method of operating an electronic device according to example embodiment(s).
  • 6 to 8 illustrate correction of direction information and output of graphic elements when a display reference point is moved while a sensing reference point is fixed in an electronic device according to exemplary embodiment(s).
  • 9 to 12 describe correction of direction information and output of graphic elements when a sensing reference point moves in an electronic device according to example embodiment(s).
  • FIG. 13 is a diagram illustrating adjustment of a field of view (FOV) of a camera image according to a change in size of a visible area in an electronic device according to an exemplary embodiment.
  • FOV field of view
  • FIGS. 14 and 15 are diagrams illustrating a calibration operation for obtaining a correction value based on a user input in an electronic device according to example embodiment(s).
  • FIG. 1 is a block diagram of an electronic device 101 within a network environment 100, according to example embodiment(s).
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network).
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 including a processing circuit, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module ( 170), sensor module 176, interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, A subscriber identification module 196 or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added.
  • some of these components eg, sensor module 176, camera module 180, or antenna module 197) are integrated into a single component (eg, display module 160). It can be.
  • the sensor module 176 may include a camera module 180 and a communication module 190 .
  • the processor 120 may, for example, execute software (eg, the program 140) to directly or indirectly connect at least one other component of the electronic device 101 (eg, hardware or software component), and can perform various data processing or calculations. According to an exemplary embodiment, as at least part of data processing or operation, processor 120 may send instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. ), process the commands or data stored in the volatile memory 132, and store the resulting data in the non-volatile memory 134.
  • software eg, the program 140
  • processor 120 may send instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. ), process the commands or data stored in the volatile memory 132, and store the resulting data in the non-volatile memory 134.
  • the processor 120 may include a main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphics processing unit, a neural network processing unit) that may operate independently of or together with the main processor 121 .
  • main processor 121 eg, a central processing unit or an application processor
  • secondary processor 123 eg, a graphics processing unit, a neural network processing unit
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphics processing unit, a neural network processing unit
  • the main processor 121 may use less power than the main processor 121 or be set to be specialized for a designated function.
  • the secondary processor 123 may be implemented separately from or as part of the main processor 121 .
  • each processor includes processing circuitry.
  • the secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, running an application). ) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • coprocessor 123 eg, image signal processor or communication processor
  • may be implemented as part of another functionally related component eg, camera module 180 or communication module 190.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • AI models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited.
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples.
  • the artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, program 140) and commands related thereto.
  • the memory 130 may include volatile memory 132 or non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used by a component (eg, the processor 120) of the electronic device 101 from the outside of the electronic device 101 (eg, a user).
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • a receiver may be used to receive an incoming call. According to an exemplary embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 may visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the display module 160 may be capable of changing the size of a viewable region on one side (eg, the side where the user is located), and may also be referred to as a flexible display.
  • a rollable display will be described as an example of a display module 160 capable of changing the size of an area shown in FIGS. 2A to 3B.
  • the electronic device 101 may further include a display length detection module (eg, the display length detection modules 430a, 430b, 430c, and 430f of FIGS. 4A to 4F).
  • the display length detection module may be a module for calculating the size of the visible area of the display module 160 .
  • the display length detection module may obtain (or receive) a sensing value corresponding to an additional size compared to the default size of the displayed area.
  • the basic size may indicate the size of a visible area in a closed state described below with reference to FIGS. 2A to 3B .
  • the added size may indicate the size of the added area compared to the basic size according to the expansion of the displayed area.
  • the size of the visible area may be expressed as a length along one axis (eg, x-axis), and an added size (eg, added length) compared to the basic size (eg, basic length) may also be expressed as an extended length.
  • the display length detection module is based on at least one of sensing a change in capacitance, sensing a change in inductance, sensing a change in magnetic flux, sensing a change in a touch point, sensing a change in resistance, and sensing a change in distance according to a change in size of an area to be viewed, based on the aforementioned added size.
  • a sensing value corresponding to may be acquired (or received).
  • the display length detection module may be operatively connected to the processor 120 and transmit an acquired (or received) sensing value to the processor 120 . An example of the display length detection module is described below in FIGS. 4A-4F.
  • the audio module 170 may convert sound into an electrical signal or vice versa. According to an exemplary embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg : Sound may be output through the electronic device 102) (eg, a speaker or a headphone).
  • the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg : Sound may be output through the electronic device 102) (eg, a speaker or a headphone).
  • At least one sensor module 176 may include a sensor for calculating direction information.
  • the direction information is information representing a direction from the electronic device 101 toward an external location, and includes, for example, an azimuth indicating a true north direction and an object recognized using the at least one sensor module. It may include at least one of the directions.
  • the object is at least one of an external device (eg, an IoT server, a base station, and an IoT device) that has established communication with the electronic device 101 and an object identified from an image captured by a vision sensor (eg, a camera module).
  • a vision sensor eg, a camera module
  • the external location may be a physical location of the aforementioned external device and/or object.
  • direction information is described as an angle between directions from a display reference point to an external location based on one axis (eg, x-axis) of an electronic device for convenience of description, but is not limited thereto.
  • the expression method of direction information, unit, and reference axis may vary depending on the design.
  • the at least one sensor module 176 includes a geomagnetic field sensor, a communication module 190 for establishing communication with an external device, a positioning module, a distance sensor for detecting a distance to an object, and detecting an object. It may include at least one of vision sensors for A geomagnetic sensor is a sensor that detects the strength of the earth's magnetic field, and may be used to calculate direction information indicating true north and/or magnetic north from a sensed value of the geomagnetic sensor.
  • the communication module 190 may illustratively establish communication with at least one of an external thing device, an external server, and an external base station.
  • the communication module 190 may perform Bluetooth communication or ultra-wideband (UWB) communication with an external object device located nearby.
  • UWB ultra-wideband
  • the positioning module is a sensor for positioning the electronic device 101 and may receive, for example, a global navigation satellite system (GNSS) signal (eg, a global positioning system (GPS) signal) from a satellite.
  • GNSS global navigation satellite system
  • GPS global positioning system
  • a physical location (eg, coordinates) of the electronic device 101 may be obtained based on a value sensed by the positioning module.
  • the distance sensor may include, for example, at least one of a time of flight (ToF) sensor, a light detection and ranging (LIDAR) sensor, and a radio detection and ranging (RADAR) sensor.
  • the vision sensor is a sensor for capturing a vision image, and may include, for example, at least one of an infrared ray (IR) sensor and a camera module 180 .
  • the camera module 180 may capture still images and moving images.
  • the camera module 180 may include at least one of one or more lenses, an image sensor, an image signal processor, and a flash.
  • the sensor module 176 may include a sensor for sensing a true north direction of the electronic device 101 and/or a sensor for sensing a direction toward an object.
  • direction information displayed on a screen eg, an application screen
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environment state (eg, a user state), and an electrical signal or data value corresponding to the detected state.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a gyro sensor, a grip sensor, a proximity sensor, a color sensor, and an infrared (IR) sensor.
  • IR infrared
  • a biometric sensor a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establishment and communication through the established communication channel may be supported.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 may be a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 ( Example: a local area network (LAN) communication module, or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 Example: a local area network (LAN) communication module, or a power line communication module.
  • a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a telecommunications network such as a computer network (eg, a LAN or a WAN).
  • a telecommunications network such as a computer network (eg, a LAN or a WAN).
  • These various types of communication modules may be integrated as one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips).
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology).
  • NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low latency
  • -latency communications can be supported.
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • the wireless communication module 192 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported.
  • the wireless communication module 192 may support various requirements defined for the electronic device 101, an external electronic device (eg, the electronic device 104), or a network system (eg, the second network 199).
  • the wireless communication module 192 may include a peak data rate for eMBB realization (eg, 20 Gbps or more), a loss coverage for mMTC realization (eg, 164 dB or less), or a U-plane latency for URLLC realization. (e.g., 0.5 ms or less for downlink (DL) and uplink (UL), or 1 ms or less for round trip).
  • a peak data rate for eMBB realization eg, 20 Gbps or more
  • a loss coverage for mMTC realization eg, 164 dB or less
  • U-plane latency for URLLC realization e.g., 0.5 ms or less for downlink (DL) and uplink (UL), or 1 ms or less for round trip.
  • the antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from the plurality of antennas by the communication module 190, for example. can be chosen A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC) may be additionally formed as a part of the antenna module 197 in addition to the radiator.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module is a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band).
  • a plurality of antennas eg, array antennas
  • the second surface eg, the top surface or side surface
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or part of operations executed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself.
  • one or more external electronic devices may be requested to perform the function or at least part of the service.
  • One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 .
  • the electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • 2A and 2B are front perspective views of the electronic device 200 showing a closed state and an open state according to example embodiment(s).
  • 3A and 3B are rear perspective views of the electronic device 200 showing a closed state and an open state according to example embodiment(s).
  • the electronic device 200 of FIG. 2A may be at least partially similar to the electronic device 101 of FIG. 1 or may further include other embodiments of the electronic device.
  • the electronic device 200 may include a first housing 210 and a second housing 220 movably coupled to the first housing 210 at least partially.
  • the first housing 210 includes a first side frame extending substantially in a vertical direction (eg, a z-axis direction) along an edge of the first plate 211 and the first plate 211 ( 212) may be included.
  • the first side frame 212 is a first side 2121, a second side 2122 extending from one end of the first side 2121, and extending from the other end of the first side 2121 It may include a third side surface 2123 to be.
  • the first housing 210 may include a first space at least partially closed from the outside through the first plate 211 and the first side frame 212 .
  • the second housing 220 is a second side frame extending in a substantially vertical direction (eg, the z-axis direction) along the edges of the second plate 221 and the second plate 221 ( 222) may be included.
  • the second side frame 222 extends from one end of the fourth side 2221 facing in the opposite direction to the first side 2121 and the fourth side 2221, and the second side 2122 ) and a sixth side surface 2223 extending from the other end of the fifth side surface 2222 and the fourth side surface 2221 at least partially coupled to the third side surface 2221 and at least partially coupled to the third side surface 2123 .
  • the fourth side surface 2221 may extend from a structure other than the second plate 221 and be coupled to the second plate 221 .
  • the second housing 220 may include a second space at least partially closed from the outside through the second plate 221 and the second side frame 222 .
  • the first plate 211 and the second plate 221 may be disposed to at least partially form a rear surface of the electronic device 200 .
  • the first plate 211, the second plate 221, the first side frame 212 and the second side frame 222 may be polymer, coated or colored glass, ceramic, metal (eg aluminum, stainless steel). (STS), or magnesium), or a combination of at least two of the above materials.
  • the electronic device 200 may include a flexible display 230 disposed to be supported by the first housing 210 and the second housing 220 .
  • the flexible display 230 may include a flat portion supported by the second housing 220 and a bendable portion extending from the flat portion and supported by the first housing 210 .
  • the bendable portion of the flexible display 230 may be disposed so as not to be exposed to the outside in the first space of the first housing 210 when the electronic device 200 is closed. When the device 200 is open, it may be exposed to the outside while being supported by the first housing 210 so as to extend from the flat surface. Therefore, the electronic device 200 expands the display screen (eg, the area viewed from one side) of the flexible display 230 according to the opening operation according to the movement of the first housing 210 from the second housing 220. It may be a rollable type electronic device.
  • the first housing 210 is at least partially inserted into the second space of the second housing 220 and coupled in a flexible manner in the direction 1 shown.
  • the first housing 210 and the second housing 220 are coupled so that the first side surface 2121 and the fourth side surface 2221 have a first distance d1. status can be maintained.
  • the electronic device 200 in an open state, is configured such that the first side surface 2121 has a second separation distance d protruding from the fourth side surface 2221 by a predetermined distance d2.
  • a state in which the first housing 210 protrudes from the second housing 220 may be maintained.
  • the flexible display 230 may be supported by the first housing 210 and/or the second housing 220 so that both ends thereof have curved edges.
  • the electronic device 200 may automatically transition into an open state and a closed state through a driving unit disposed in the first space and/or the second space.
  • a driving unit disposed in the first space and/or the second space.
  • the processor eg, the processor 120 of FIG. 1
  • the operation of the first housing 210 is performed through a driving unit.
  • the driving unit that changes the size of the visible area of the display module may include a motor, but is not limited thereto, and may include a driving module that provides electrical and/or mechanical driving force that causes the size of the visible area to change.
  • the first housing 210 may be manually protruded from the second housing 220 through a user's manipulation (eg, physical force).
  • the first housing 210 can protrude by a user's desired protrusion amount, and thus the screen of the flexible display 230 can also be changed to have various display areas.
  • the flexible display 230 may have a basic visible area in a closed state and a maximum or large visible area in an open state. The expansion and/or contraction of the flexible display 230 may be stopped at a point where the visible area has a predetermined size between the basic size and the maximum or large size.
  • the processor eg, the processor 120 of FIG.
  • the electronic device 200 displays an object (eg, an external object) in various ways in response to a display area corresponding to a predetermined amount of protrusion of the first housing 210 . It can also be controlled to display graphic elements) and run an application program.
  • 2A to 3B show an example in which the flexible display 230 expands in one direction when an open/closed state transition event is detected, but the present invention is not limited thereto, and the flexible display 230 may be expanded in another direction or in both directions. may be
  • the electronic device 200 includes an input device 203, sound output devices 206 and 207, sensor modules 204 and 217, camera modules 205 and 216, and a connector port 208. , a key input device (not shown), or an indicator (not shown).
  • the electronic device 200 may omit at least one of the above-described components or may additionally include other components.
  • the input device 203 may include a microphone 203 .
  • the input device 203 may include a plurality of microphones 203 arranged to sense the direction of sound.
  • the sound output devices 206 and 207 may include speakers 206 and 207 .
  • the speakers 206 and 207 may include an external speaker 206 and a receiver 207 for communication.
  • the microphone 203 or the connector port 208 may also be formed to have substantially the same configuration.
  • the sound output devices 206 and 207 may include an operated speaker (eg, a piezo speaker) while the separate speaker hole 206 is excluded.
  • the sensor modules 204 and 217 may generate electrical signals or data values corresponding to an internal operating state of the electronic device 200 or an external environmental state.
  • the sensor modules 204 and 217 are, for example, the first sensor module 204 (eg, a proximity sensor or an illuminance sensor) disposed on the front surface of the second housing 220 and/or the second housing 220.
  • a second sensor module 217 eg, HRM sensor
  • the first sensor module 204 may be disposed below the flexible display 230 in the second housing 220 .
  • the first sensor module 204 may include a proximity sensor, an ambient light sensor 204, a time of flight (TOF) sensor, an ultrasonic sensor, a fingerprint recognition sensor, a gesture sensor, a gyro sensor, an air pressure sensor, and a magnetic sensor. , an acceleration sensor, a grip sensor, a color sensor, an IR (infrared) sensor, a biosensor, a temperature sensor, or a humidity sensor.
  • TOF time of flight
  • the camera devices 205 and 216 include the first camera device 205 disposed on the front side of the second housing 220 of the electronic device 200 and the rear side of the second housing 220. It may include a second camera device 216 disposed on.
  • the electronic device 200 may include a flash 218 positioned near the second camera device 216 .
  • the camera devices 205 and 216 may include one or a plurality of lenses, an image sensor, and/or an image signal processor.
  • the first camera device 205 may be disposed under the flexible display 230 and photograph a subject through a part of an active area of the flexible display 230 .
  • flash 218 may include, for example, a light emitting diode or a xenon lamp.
  • two or more lenses (wide angle and telephoto lenses) and image sensors may be disposed on one side of the electronic device 200 .
  • the electronic device 200 may include at least one antenna (not shown).
  • at least one antenna may wirelessly communicate with an external electronic device (eg, the electronic device 104 of FIG. 1 ) or wirelessly transmit/receive power required for charging.
  • the antenna may include a legacy antenna, mmWave antenna, near field communication (NFC) antenna, wireless charging antenna, and/or magnetic secure transmission (MST) antenna.
  • the antenna structure may be formed through at least a portion of the first side frame 212 and/or the second side frame 222 formed of metal.
  • Electronic devices may be devices of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device e.g, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart bracelet
  • first, second, or first or secondary may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited.
  • a (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • the certain component may be connected to the other component directly (eg by wire), wirelessly, or at least through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits.
  • a module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC). Therefore, each "module” herein may include a circuit.
  • ASIC application-specific integrated circuit
  • a storage medium eg, internal memory 136 or external memory 138
  • a machine eg, electronic device 101
  • a processor eg, the processor 120
  • a device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
  • a signal e.g. electromagnetic wave
  • the method may be included and provided in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • a device-readable storage medium eg compact disc read only memory (CD-ROM)
  • an application store eg Play Store TM
  • It can be distributed (eg downloaded or uploaded) online, directly between smart phones.
  • at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
  • each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is.
  • one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg modules or programs
  • the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. .
  • the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.
  • FIGS. 4A-4F show examples of a display length detection module according to an illustrative embodiment.
  • the display length detection module performs at least one of sensing a change in capacitance, sensing a change in inductance, sensing a change in magnetic flux, sensing a change in a touch point, sensing a change in resistance, and sensing a change in distance according to a size change of a visible area. Based on this, it is possible to obtain a sensing value corresponding to the aforementioned added size.
  • a metal 410a may be directly or indirectly connected to one end of the display module 460 (eg, the display module 160 of FIG. 1 ).
  • An internal substrate of an electronic device eg, the electronic device 101 of FIG. 1
  • a capacitive coupling may be formed between the metal 410a connected to the display module 460 and the metals 420a disposed on the substrate.
  • the metal 410a may be moved along one axis (eg, the x-axis) when the size of the area shown on the display module 460 changes.
  • the display length detection module 430a may sense a capacitance value due to the capacitive coupling formed between the aforementioned metal 410a and the metals 420a.
  • the capacitance value may be interpreted as a value corresponding to the one-axis length (eg, x-axis length) of the added portion compared to the basic size in the display module 460 .
  • a metal 410b may be connected to one end of the display module 460 .
  • a coil 420b formed long along one axis (eg, the x-axis) may be disposed on an internal substrate of the electronic device.
  • An inductive coupling may be formed between the metal 410b connected to the display module 460 directly or indirectly and the coil 420b disposed on the substrate.
  • the metal 410b may be moved along one axis (eg, the x-axis) when the size of the area shown on the display module 460 changes.
  • the display length detection module 430b may sense an inductance value due to the inductive coupling formed between the aforementioned metal 410b and the coil 420b.
  • the inductance value may be interpreted as a value corresponding to the one-axis length (eg, x-axis length) of the added portion compared to the basic size in the display module 460 .
  • the present invention is not limited thereto, and the display length detection module 430b may recognize a change in magnetic flux of the magnetized metal 410b or detect a change in rotation of magnetic flux within a hinge of an electronic device.
  • the display length detection module 430c may be directly or indirectly connected to one end of the display module 460 .
  • the display length detection module 430c may be a hall sensor.
  • One or more magnets 420c may be disposed on an inner substrate of the electronic device. According to the size change of the visible area, the distance between the display length detection module 430c and the magnet 420c may change, and the magnetic flux sensed by the display length detection module 430c may change.
  • the magnetic flux value and/or the magnetic flux pattern sensed by the display length detection module 430c may be interpreted as a value corresponding to the uniaxial length (eg, x-axis length) of the added portion compared to the basic size in the display module 460 .
  • the housing of the electronic device may include a conductor 410d disposed to contact the touch screen panel of the display module 460 .
  • the conductor 410d is shown as contacting the curved portion of the display panel, but is not limited thereto.
  • the display length detection module may sense contact coordinates between the conductor 410d and the touch screen panel as a sensing value.
  • a resistance strip 420e and a wiper 410e connected directly or indirectly may be connected to one end of the display module 460 .
  • the resistance strip 420e may be formed long along one axis (eg, the x-axis) of the internal substrate of the electronic device.
  • a resistance value may vary according to a contact point between the wiper 410e and the resistance strip 420e.
  • the display length detection module may sense the resistance value as a sensing value corresponding to the added area of the visible area.
  • a device 410f may be directly or indirectly connected to one end of the display module 460 .
  • the instrument 410f may reflect the signal transmitted from the display length detection module 430f.
  • the mechanism 410f may be moved along one axis (eg, the x-axis) according to a change in the size of the visible area.
  • the display length detection module 430f may obtain a sensing value based on a signal reflected from the object 410f.
  • the display length detection module 430f transmits a signal (eg, light) toward the object 410f through a light source based on Time of Flight (TOF), and measures a time difference between a transmission signal and a reception signal.
  • a signal eg, light
  • TOF Time of Flight
  • a time difference (eg, phase difference) between a transmitted signal and a received signal may be converted into a distance.
  • the present invention is not limited thereto, and the display length detection module 430f may measure the amount of reflected light.
  • a light quantity may be converted into a distance.
  • the distance between the display length detection module 430f and the fixture 410f may correspond to the length of one axis (eg, the length of the x axis) of the area added in the visible area. For example, when the distance between the display length detection module 430f and the object 410f increases, the uniaxial length of the area added in the visible area may increase. For another example, when the distance between the display length detection module 430f and the object 410f decreases, the uniaxial length of the added area in the visible area may decrease.
  • Fig. 5 is a flow chart showing an operating method of an electronic device according to an exemplary embodiment.
  • the electronic device receives a first signal received from at least one sensor module (eg, the sensor module 176 of FIG. 1 ).
  • a first graphic element corresponding to the first direction information calculated based on the sensed value may be output to a display module (eg, the display module 160 of FIG. 1 ).
  • the graphic element may include at least one of a direction graphic representation indicating a direction from the electronic device toward an object or true north, and a location graphic representation indicating a location of the object.
  • the directional graphic representation may be output at a display reference point within the application screen of the visible area.
  • the application screen may represent a screen of an application providing graphic elements based on direction information.
  • the application screen may occupy the entire area or a partial area of the displayed area.
  • the display reference point may be a point indicating the position of the electronic device within the application screen.
  • the location graphic representation may be output at a point indicating an object within the application screen, which is determined based on direction information with respect to the display reference point.
  • the first sensing value may be obtained based on sensing before occurrence of an event for changing the size of a visible area, which will be described later.
  • the electronic device may monitor a change in relative position between the first graphic element being output and the at least one sensor module in response to an event for changing the size of the visible area of the display module.
  • the event for changing the size of the displayed area may be a user input causing a size change of the displayed area, an event for changing the display size received through communication, and/or a display size change triggered by an application. At least one of the events may be included.
  • a relative position between the graphic element (eg, the first graphic element) and the sensor module may be a relative position between a display reference point and a sensing reference point.
  • the sensing reference point may be a physical location of a sensor module.
  • the sensor module may be moved or fixed within the electronic device according to the structure of the electronic device when the size of the area to be viewed changes.
  • the display reference point may be moved by a change in the area and/or location of the application screen based on a change in the size of the displayed area, or may be moved by a change in a point representing the location of the electronic device within the application screen.
  • the electronic device may correct second direction information calculated based on the second sensing value received from at least one sensor module based on the change in relative position.
  • the electronic device may correct the second direction information when a relative position (eg, distance) between the sensing reference point and the display reference point changes.
  • the second sensed value may be a value obtained after a sensing time of the first sensed value, and may be a value sensed after a size change of the visible area starts.
  • the second sensing value may have a different value from the first sensing value when at least one sensor module moves due to a change in the size of the visible area.
  • the second sensing value may have the same value as the first sensing value when the position of at least one sensor module is fixed.
  • the electronic device may correct the second direction information by performing at least one of recalculating the second direction information, calculating and applying a correction value to the second direction information, and applying a previously recorded correction value to the second direction information. there is.
  • FIGS. 6 to 8 an example in which the position of the sensor module (eg, a sensing reference point) is fixed and the position of a graphic element (eg, a display reference point) in an application screen moves according to a change in size of a visible area is described.
  • a sensing reference point is moved and a display reference point is fixed according to a change in size of a visible area will be described.
  • FIG. 12 an example in which both the sensing reference point and the display reference point are moved according to the size change of the visible area is described.
  • the electronic device may output a second graphic element corresponding to the corrected second direction information to the display module.
  • the electronic device may output a second graphic element obtained by rotating and/or moving the first graphic element based on corrected second direction information.
  • the electronic device may output the second graphic element to the display module by using the second direction information calculated based on the second sensed value.
  • the electronic device may output the second graphic element using the second direction information without correction.
  • An electronic device may execute an application providing a service related to the location of a local object (eg, a local object search service).
  • a local object e.g, a local object search service
  • the electronic device uses augmented reality (AR) to display a camera image captured by an application and/or a camera module that outputs a graphic element corresponding to direction information without an image and a graphic element corresponding to an object together.
  • AR augmented reality
  • a graphic element corresponding to an object may be output at a position within the application screen determined based on a short-range positioning (eg, distance and direction) between the electronic device and the object.
  • the electronic device may output a direction and/or distance toward an external location (eg, the location of an object and/or true north) through a graphic element at a point (eg, a display reference point) corresponding to its own location in an application screen.
  • the electronic device may output a graphic element at a point in the application screen corresponding to the distance and direction representing the position of the object on the camera image.
  • the electronic device may remeasure direction information and distance or perform correction according to the amount of movement.
  • the electronic device may correct the sensed second direction information corresponding to the change in size of the area shown on the display module based on a change in relative position between the sensor module and the graphic element. Therefore, the electronic device can output the graphic element indicating the external position without error by correcting the change of the sensing reference point according to the movement of the sensor module and/or the change of the display reference point according to the movement of the graphic element to the second direction information.
  • 6 to 8 illustrate correction of direction information and output of graphic elements when a display reference point is moved while a sensing reference point is fixed in an electronic device according to an exemplary embodiment.
  • a first sensed value of a sensor module (eg, the sensor module 176 of FIG. 1 ) may be obtained.
  • the electronic device may determine first direction information indicating a direction from the first display reference point 711 toward an external location based on the first sensed value.
  • the first display reference point 711 is a point within the visible area 760 serving as an output standard for graphic elements before the size of the visible area 760 is changed, and may be a point indicating the location of an electronic device.
  • the electronic device may detect (or confirm or receive) an event for changing the size of the visible area 760 while the sensor module is fixed. For example, the electronic device may detect a size change of the visible area 760 caused by driving a motor and/or an external force.
  • the electronic device may acquire the changed size of the visible area 760.
  • the electronic device may change the size of the visible region 760 based on motor driving information (eg, the number of revolutions of the motor and the change length per revolution).
  • the size to be changed (eg, uniaxial length) of 760 can be predicted.
  • the electronic device may obtain an added size (eg, added length) compared to the basic size (eg, basic length) in the visible area 760 based on the sensing of the display length detection module.
  • the length added to the basic length may also be referred to as the extended length e.
  • the electronic device may obtain an extended length e corresponding to the added area of the visible area 760 .
  • the electronic device may calculate a movement length s of a graphic element (eg, a direction graphic expression). For example, the electronic device may calculate the movement length s of the first graphic element according to the size change of the visible area 760 . The electronic device may determine the movement length s of the display reference point based on the changed size obtained in operation 620 described above.
  • the second display reference point 712 is a display reference point after the size change of the visible area 760 is completed, and may be a point moved from the first display reference point 711 by a movement length s. In the example shown in FIG.
  • the display reference point is located at the center point on one axis (eg, the x-axis) of the application screen and can be moved by half of the extension length e described above.
  • the electronic device may determine half of the extension length e as the movement length s of the display reference point.
  • the directional graphic expression output from the display reference point may also be moved by the movement length s.
  • the points 721 at which the positional graphic representations determined based on the first direction information are displayed at the second display reference point 712 indicate the physical position of the real object 790 from the second display reference point 712. You can deviate from the line corresponding to the direction you are facing.
  • an error may occur in a direction indicated by a direction graphic expression displayed at the second display reference point 712 as well as a position error of the points 721 on which the location graphic representations are displayed.
  • the first direction information based on the first sensed value of the sensor module and the second direction information based on the second sensed value are the same, but an error may occur because the display reference point has changed.
  • an error corresponding to a positional difference (eg, movement length s) between the second display reference point 712 and the first display reference point 711 may occur. Since the movement length s increases as the extension length e increases, an error between the second direction information without correction and the direction toward the real object 790 may increase.
  • a similar error may occur even when the size of the visible area 760 is reduced.
  • the electronic device may correct direction information based on the sensed value of the sensor module.
  • An electronic device may include a movement length s of a first graphic element (eg, a direction graphic representation), a distance D to a physical location corresponding to the first graphic element, and first direction information (eg, direction graphic representation). : Based on the angle a) between directions from the first display reference point 711 toward the external location on the basis of the x-axis, second direction information (eg, between the direction from the second display reference point 712 to the external location on the basis of the x-axis) The corrected angle b) can be corrected.
  • the electronic device may determine one axis length (eg, x-axis length) d x and other axis length (eg, y-axis length) d between the object 790 and the first display reference point 711 based on the angle a and the distance D. y can be calculated.
  • the movement length s of the display reference point may increase.
  • a larger correction value may be applied to a graphic element corresponding to an object 790 displayed far from the display reference point along the y-axis within the application screen.
  • the electronic device may correct the second direction information using the calibration information.
  • the calibration information may include a pre-calculated correction value for a sensing value of at least one sensor module.
  • the calibration information may include correction values corresponding to movement lengths of a first graphic element (eg, a directional graphic expression disposed at a display reference point) with respect to a plurality of sensed values of at least one sensor module. Correction values of the calibration information may be pre-calculated and stored for each movement length, distances between the external location and the electronic device, and additional lengths compared to the basic length in the visible area 760 .
  • the electronic device may output a graphic element using the corrected direction information.
  • the electronic device may perform at least one of rotation in a first rotation direction and movement in a first movement direction of the first graphic element based on an increase in the visible area 760 with at least one sensor module fixed thereto.
  • a second graphic element may be created by applying .
  • the electronic device rotates the first graphic element in a second rotation direction different from the first rotation direction based on the reduction of the visible area 760 with the at least one sensor module fixed, and the first rotation direction.
  • a second graphic element may be created by applying at least one of the movements in a second movement direction different from the movement direction.
  • the electronic device outputs a second graphic element obtained by applying at least one of rotation by an angle corresponding to the size change amount of the visible area 760 and movement by a displacement corresponding to the size change amount to the first graphic element. can do.
  • the electronic device may arrange and output a graphic representation of the location and direction of points 722 on a line corresponding to the corrected second direction information from the second display reference point 712 .
  • the electronic device displays a first graphic element (eg, the first direction graphic representation 811) corresponding to the first direction information in response to an expansion event of the displayed area, a first size change amount of the displayed area.
  • a second graphic element rotated by an angle corresponding to eg, the second direction graphic expression 812 may be output.
  • the electronic device may output a second direction graphic representation 822 obtained by rotating the first direction graphic representation 821 even when the visible area is expanded by a second size change amount greater than the first size change amount.
  • 9 to 12 describe correction of direction information and output of graphic elements when a sensing reference point moves in an electronic device according to an exemplary embodiment.
  • the electronic device moves the sensor module (e.g., sensor module 176 of FIG. 1) to the visible area.
  • An event for changing the size of 1060 may be detected (or confirmed or received). Only the sensor module can be moved and the display reference point can be fixed, or the display reference point can be moved together with the sensor module.
  • 9 to 11 describe an example in which the sensor module moves while the display reference point is fixed.
  • 12 describes an example in which both the display reference point and the sensor module move.
  • the electronic device may acquire the changed size of the visible area 1060 while the position of the graphic element (eg, directional graphic expression) is fixed.
  • the electronic device may determine the extended length e compared to the basic length in the visible area 1060 .
  • An application screen guiding the direction of the object 1090 may be displayed in the basic area corresponding to the basic size of the visible area 1060 .
  • a screen of another application may be displayed on the area added compared to the basic size.
  • the size of the application screen for guiding the direction of the object 1090 may be maintained.
  • the display reference point 1010 in the application screen may also be maintained.
  • the display reference point 1010 is fixed, but the second direction information obtained after screen expansion may be different from the first direction information according to the movement of the sensor module.
  • the point 1031 determined based on the second direction information based on the second sensing value obtained at the changed second position 1022 of the sensor module is different from the point 1032 determined based on the first direction information.
  • the location graphic representation representing the object 1090 since the size of the application screen and the display reference point 1010 have not changed, the location graphic representation representing the object 1090 must be displayed at the point 1032 determined based on the first direction information. The aforementioned error may increase as the movement amount of the sensor module increases.
  • the directional graphic representation displayed at the display reference point 1010 should be maintained because the application screen is the same, but rotation due to the second direction information changed by the movement of the sensor module may cause an error.
  • the electronic device may stop sensing of the sensor module. For example, when the electronic device detects an event in which the sensor module moves from the first position 1021 to the second position 1022 while the display reference point 1010 is fixed, the electronic device deactivates the sensing of the sensor module. can do.
  • the electronic device may monitor rotation of the electronic device.
  • the electronic device may monitor whether rotation of the electronic device at or above a threshold angle occurs in a display plane (eg, an xy plane) based on a 6-axis sensor (eg, an acceleration sensor and a gyro sensor).
  • the electronic device may continue to stop sensing of the sensor module when the electronic device does not rotate beyond the critical angle.
  • the electronic device may stop sensing of at least one sensor module while the at least one sensor module is moving by changing the size of the visible area 1060 .
  • the electronic device may maintain a graphic element (eg, a position graphic expression and/or a direction graphic expression) displayed on the application screen by preventing the sensor module from acquiring the second sensed value.
  • the electronic device may display a second graphic element, such as the first graphic element, based on the movement of at least one sensor module by changing the size of the visible area 1060 while the position of the first graphic element is fixed.
  • the electronic device may correct direction information based on the sensed value of the sensor module.
  • the electronic device may resume sensing of the sensor module when rotation of the threshold angle or more occurs (operation 940 - Yes).
  • the electronic device may record the correction value calculated based on the first direction information when the aforementioned event (eg, an event in which the sensor module moves while the display reference point is fixed) occurs.
  • the electronic device may apply a correction value to second direction information obtained based on sensing of at least one sensor module.
  • the electronic device may calculate prediction direction information corresponding to a size changed by an event in the visible area 1060 .
  • the predicted direction information may be direction information based on a predicted sensing value predicted to be sensed by the sensor module at the second position 1022 based on the point of time when the first direction information is sensed.
  • the prediction direction information may include a prediction angle c formed between a direction from the second position 1022 toward the object 1090 and one axis (eg, the x-axis).
  • the electronic device may obtain the length dx of one axis and the length dy of another axis based on the angle a (eg, the initial angle) according to the first direction information and the distance D between the object 1090 and the sensor module.
  • the moving length s of the sensor module may be equal to the extended length e.
  • the electronic device may calculate a correction value based on the predicted direction information and the first direction information.
  • the electronic device may calculate a difference between the predicted angle c and the angle a according to the first direction information as a correction value.
  • the electronic device may correct the second direction information by applying the calculated correction value to the second direction information acquired based on the second sensed value of the sensor module. For example, the electronic device may subtract the correction value calculated from the second direction information.
  • the electronic device may output the second graphic element using the corrected second direction information.
  • the electronic device may output a location graphic representation at a point 1032 on a line corresponding to the corrected second direction information from the display reference point 1010 .
  • the electronic device may output a graphic element based on a fixed display reference point 1110 despite screen expansion.
  • the electronic device may display a first graphic element (eg, first position graphic expression) at a point 1131 corresponding to the first direction information based on the first sensing value sensed by the sensing module at the first position 1121. ) can be output.
  • the electronic device may correct the second direction information based on the second sensed value of the sensor module moved to the second positions 1122 and 1123 by the expansion of the visible area 1060 .
  • the electronic device may output the second position graphic representation at points 1133 and 1135 corresponding to the corrected second direction information instead of points 1132 and 1134 corresponding to the second direction information.
  • points 1133 and 1135 corresponding to the corrected second direction information may be the same as points 1131 corresponding to the first direction information.
  • the electronic device provides a direction graphic representation 1142 corresponding to second direction information (eg, second direction information before correction) based on the second sensed value of the sensor module moved by the expansion of the visible area 1060.
  • a direction graphic representation 1143 corresponding to the corrected second direction information may be output.
  • the direction graphic representation 1143 corresponding to the corrected second direction information may indicate the same direction as the direction graphic representation 1141 based on the first direction information. Accordingly, the electronic device may display the object at the same point as the existing display position by applying a correction value to the error-occurring second direction information.
  • the electronic device is based on the movement of the first graphic element (eg, direction graphic representation displayed at the display reference point) and at least one sensor module (eg, the sensor module 176 of FIG. 1) by changing the size of the visible area.
  • prediction direction information corresponding to half of the size changed by the event in the visible area may be calculated.
  • the electronic device may determine the movement length s of the sensor module as half of the extension length e. This may be because the display reference point is moved by a length corresponding to half of the extension length e, so the error compared to the aforementioned exemplary embodiment in FIG. 10 is also reduced by half.
  • the predicted direction information may include a predicted angle c formed between a direction from the moved position of the sensor module toward the object and one axis (eg, the x-axis).
  • the electronic device may obtain the length dx of one axis and the length dy of another axis based on the angle a (eg, the initial angle) according to the first direction information and the distance D between the object and the sensor module.
  • the electronic device may calculate a correction value based on the predicted direction information and the first direction information.
  • the electronic device may calculate a difference between the predicted angle c and the angle a according to the first direction information as a correction value.
  • the electronic device may apply a correction value to the second direction information.
  • the electronic device generates a first graphic element (eg, a first position graphic expression and/or a second position graphic expression) using first direction information based on a first sensing value sensed by a sensor module at a first position 1221. can be printed out.
  • the electronic device may correct the second direction information based on the second sensing value sensed by the sensor module at the second position 1222 using the correction value described above. If there is no correction, the point 1231 and the direction 1241 based on the second direction information may include an error.
  • the electronic device outputs a second position graphic representation at a point 1232 corresponding to the corrected second direction information and/or outputs a direction graphic representation indicating a direction 1242 corresponding to the corrected second direction information.
  • the electronic device measures the direction information through the sensor module and corrects the re-measured direction information based on the changed display reference point to determine the position of the object and/or the electronic device.
  • a graphic element representing the direction may be displayed on the display module.
  • FIG. 13 is a diagram illustrating adjustment of a field of view (FOV) of a camera image according to a change in size of a visible area in an electronic device according to an exemplary embodiment.
  • FOV field of view
  • At least one sensor module (eg, the sensor module 176 of FIG. 1 ) of the electronic device is a camera module (eg, the camera module of FIG. 1 ( 180)).
  • the camera module may be maintained at a fixed position 1320 or may be moved from a first position 1321 to a second position 1322 .
  • the electronic device adjusts a field of view (FOV) centered on a target object in an image obtained based on the camera module to crop the image.
  • FOV field of view
  • the electronic device crops an image with a field of view (FOV) determined based on a target object and a moving distance of the camera module in the camera image acquired based on the camera module.
  • the electronic device may crop the camera image to the viewing angle shifted in the opposite direction to the moving direction of the camera module so that the targeted object is targeted at the center of the viewing angle.
  • a pixel shift amount may vary according to the distance between the object and the electronic device and the moving distance of the camera module.
  • the electronic device may determine a pixel shift amount based on the distance to the targeted object and/or the moving distance of the camera module, and crop the camera image at a viewing angle shifted by the determined pixel shift amount.
  • the electronic device may track an object while minimizing or reducing object recognition included in the camera image (eg, recognition based on artificial intelligence analysis), and thus the amount of computation may be reduced.
  • the electronic device may output a graphic element (eg, a graphic representation of a position and/or a graphic representation of a direction) of a targeted object using direction information corrected as described above with reference to FIGS. 1 to 12 .
  • the electronic device may generate an augmented reality image by overlaying a graphic element on the cropped image.
  • the electronic device may output an augmented reality image without a margin area.
  • the display reference point is moved according to the size change of the visible area, and the size of the augmented reality image may also change.
  • the electronic device may crop a partial image corresponding to the first viewing angle 1361 corresponding to the aspect ratio of the closed state 1371 among the original camera images 1373.
  • the electronic device may crop a partial image corresponding to the second viewing angle 1362 corresponding to the aspect ratio of the open state 1372 among the original camera images 1373.
  • the second viewing angle 1362 may have a range that is wider horizontally and narrower vertically than the first viewing angle 1361 .
  • the electronic device may shift the cropped region of the original camera image 1373 in a direction opposite to the movement direction of the camera module.
  • the direction of movement of the camera module may be parallel to the direction of expansion and contraction of the viewing area.
  • the electronic device may output an augmented reality image of the same size despite a change in the size of the displayed screen area.
  • the image size cropped from the original camera image may be maintained.
  • the electronic device may output augmented reality images of the same size in the closed state 1381 and the open state 1382 .
  • the electronic device may shift the cropped area from the original camera image from the first viewing angle area 1391 to the second viewing angle area 1392 .
  • the second viewing angle area 1392 may be an area moved in a direction 1393 opposite to the moving direction of the camera module relative to the first viewing angle area 1391 .
  • the electronic device may provide a target object and graphic element in the central area of the application screen to the user regardless of the size change of the displayed screen area.
  • FIGS. 14 and 15 are diagrams illustrating a calibration operation for obtaining a correction value based on a user input in an electronic device according to exemplary embodiments.
  • an electronic device eg, the electronic device 101 of FIG. 1 or the processor 120 of FIG. 1 . may detect (or confirm or receive) an event for changing the size of a visible area.
  • the electronic device may initiate calibration of direction information. For example, the electronic device may calibrate direction information of at least one sensing module based on a user input. When there is an error between the graphic element output after changing the size of the visible area and the direction of the real object 1590, the electronic device may perform a calibration operation through a user input. The user input may indicate an input for selecting an object 1501 for initiation of calibration. When the electronic device detects an event for changing the size of a visible area, it may output an object 1501 for starting calibration.
  • the electronic device may store acceleration information and/or gyro information at a start point during calibration.
  • the electronic device may calculate and store calibration omnidirectional information based on sensor information (eg, acceleration information and gyro information) acquired at the start of calibration.
  • the electronic device may be rotated by a user's manipulation.
  • the electronic device may monitor acceleration information and gyro information of the electronic device during calibration.
  • the electronic device may output a directional graphic representation 1510 for calibration at the display reference point.
  • the electronic device may output a directional graphic representation 1510 in a fixed direction (eg, a direction facing the front along the y-axis of the electronic device) within the visible region.
  • the electronic device can be rotated by the user until the orientation of the directional graphical representation 1510 matches the object 1590 .
  • the electronic device may output a display 1530 indicating that direction information is being corrected.
  • a display 1530 indicating that direction information is being corrected.
  • FIG. 15 an example in which the display 1530 is output while entering calibration has been described, but is not limited thereto.
  • an indication 1530 indicating that the direction information is being corrected is output, and the direction information may be automatically corrected.
  • the electronic device may store acceleration information and/or gyro information upon completion of calibration.
  • the electronic device may end the calibration in response to the user's end input upon determining that the adjusted directional graphic representation 1510 is oriented toward the real object 1590 .
  • the end input may indicate an input for selecting the object 1520 for end of calibration.
  • the electronic device may calculate and store direction information (eg, acceleration information and gyro information) after calibration based on sensor information acquired at the end of calibration.
  • the electronic device may determine a correction value based on acceleration information and/or gyro information stored at the start and end of calibration. For example, the electronic device may determine a correction value for direction information based on acceleration information and gyro information acquired at the end of calibration.
  • the electronic device determines directional information before calibration based on sensor information (eg, acceleration information and gyro information) acquired at the start of calibration, and directional information (eg, acceleration information and gyro information) after calibration based on sensor information obtained at the end of calibration. gyro information) can be determined.
  • the electronic device may calculate a difference between direction information after calibration and direction information before calibration as a correction value.
  • Direction information before and after calibration may be determined based on at least one of the aforementioned acceleration information, gyro information, and earth magnetic field value.
  • “based on” covers at least based on.
  • the electronic device may correct the second direction information by applying the calculated correction value to the second direction information based on the second sensed value of the sensor module. (eg see operation 1470 of FIG. 14)
  • An electronic device may provide correct object-oriented display by correcting errors caused by a change in size of a visible area, movement of a sensor module, and movement of a graphic element.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

An electronic device according to one embodiment can: output, to a display module, a first graphic element corresponding to first direction information calculated on the basis of a first sensing value received from at least one sensor module; in response to the occurrence of an event for changing the size of a viewable region, monitor a change in the relative position between the first graphic element being output and the at least one sensor module; when it is determined that the relative position has changed, correct second direction information calculated on the basis of a second sensing value received from the at least one sensor module on the basis of the change in the relative position; and output a second graphic element corresponding to the corrected second direction information to the display module.

Description

플렉서블 디스플레이를 가지는 전자 장치Electronic device having a flexible display
특정 예시적인 실시예들은 플렉서블 디스플레이를 가지는 전자 장치에 관한 것이다.Certain example embodiments relate to an electronic device having a flexible display.
IoT(internet of thing) 기기, 사물 인터넷의 발달, 및 스마트 태그(smart tag)의 사용이 증가하고 있다. 모바일 단말은 근거리 측위로 산출된 방위각을 기반으로 사물의 위치를 표시할 수 있다. 근거리 측위는 UWB(ultra-wideband) 통신, BT(Bluetooth) 통신 기반의 RTLS(Real Time Location System), ToF(time of flight) 센서, 가속도 센서, 지자계 센서, 및/또는 카메라 중 적어도 하나를 이용한 촬영 이미지 분석을 활용하여 계산될 수 있다.Internet of things (IoT) devices, the development of the Internet of Things, and the use of smart tags are increasing. The mobile terminal may display the location of an object based on the azimuth angle calculated through short-range positioning. Short-range positioning is performed using at least one of ultra-wideband (UWB) communication, Real Time Location System (RTLS) based on Bluetooth (BT) communication, time of flight (ToF) sensor, acceleration sensor, geomagnetic sensor, and/or camera. It can be calculated using captured image analysis.
화면 크기가 달라지는 플렉서블 디스플레이를 가지는 모바일 단말에서는 화면의 크기 변화로 인해 표시의 기준이 되는 지점이 이동하거나, 사물의 위치를 지시하는 방향이 달라질 수 있다. 이전에 산출된 방위각을 기반으로 사물의 위치를 표시할 경우 표시 오차가 발생할 수 있다.In a mobile terminal having a flexible display having a different screen size, a point serving as a reference for display may move or a direction indicating a location of an object may change due to a change in screen size. A display error may occur when the position of an object is displayed based on the previously calculated azimuth.
디스플레이의 크기 변화에 대한 보정이 없는 경우, 사물의 위치를 화면에 표시할 때 오차가 발생할 수 있다. 예시적인 실시예에 따른 전자 장치는 사물의 위치를 화면에 표시할 때 디스플레이의 크기 변화 및/또는 센서 모듈의 이동에 따른 사물의 위치 표시 보정을 진행할 수 있다.If there is no correction for the size change of the display, an error may occur when displaying the position of an object on the screen. When displaying the position of an object on the screen, the electronic device according to an exemplary embodiment may perform display correction of the position of the object according to a change in size of the display and/or movement of the sensor module.
예시적인 실시예에 따른 전자 장치는, 방향 정보를 산출하기 위한 적어도 하나의 센서 모듈, 일측에서 보여지는 영역(viewable region)의 크기 변경이 가능한 디스플레이 모듈, 상기 보여지는 영역의 크기를 산출하기 위한 디스플레이 길이 검출 모듈, 컴퓨터로 실행 가능한 명령어들이 저장된 메모리, 및 상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는, 처리 회로(processing circuitry)를 포함하는, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 명령어들의 실행시, 상기 적어도 하나의 센서 모듈로부터 수신한 제1 센싱값에 기초하여 산출된 제1 방향 정보에 대응하는 제1 그래픽 요소를 상기 디스플레이 모듈에 출력하고, 상기 보여지는 영역의 크기 변경을 위한 이벤트의 발생에 응답하여, 상기 출력 중인 제1 그래픽 요소 및 상기 적어도 하나의 센서 모듈 간의 상대적 위치의 변화를 모니터링하며, 상기 상대적 위치가 변화한 것으로 판단되면, 상기 적어도 하나의 센서 모듈로부터 수신한 제2 센싱값에 기초하여 산출된 제2 방향 정보를 상기 상대적 위치의 변화에 기초하여 보정하고, 상기 보정된 제2 방향 정보에 대응하는 제2 그래픽 요소를 상기 디스플레이 모듈에 출력할 수 있다.An electronic device according to an exemplary embodiment includes at least one sensor module for calculating direction information, a display module capable of changing the size of a viewable region from one side, and a display for calculating the size of the viewable region. At least one processor comprising a length detection module, a memory storing computer-executable instructions, and processing circuitry for accessing the memory and executing the instructions; When the instructions are executed, the processor outputs, to the display module, a first graphic element corresponding to first direction information calculated based on a first sensing value received from the at least one sensor module, and In response to the occurrence of an event for size change, a change in the relative position between the outputting first graphic element and the at least one sensor module is monitored, and when it is determined that the relative position has changed, the at least one sensor module Correcting the second direction information calculated based on the second sensing value received from the relative position based on the change in the relative position, and outputting a second graphic element corresponding to the corrected second direction information to the display module. there is.
예시적인 실시예에 따른 프로세서로 구현되는 방법은, 적어도 하나의 센서 모듈로부터 수신한 제1 센싱값에 기초하여 산출된 제1 방향 정보에 대응하는 제1 그래픽 요소를 디스플레이 모듈에 출력하는 동작, 상기 디스플레이 모듈의 보여지는 영역의 크기 변경을 위한 이벤트의 발생에 응답하여, 상기 출력 중인 제1 그래픽 요소 및 상기 적어도 하나의 센서 모듈 간의 상대적 위치의 변화를 모니터링하는 동작, 상기 상대적 위치가 변화한 것으로 판단되면, 상기 적어도 하나의 센서 모듈로부터 수신한 제2 센싱값에 기초하여 산출된 제2 방향 정보를 상기 상대적 위치의 변화에 기초하여 보정하는 동작, 및 상기 보정된 제2 방향 정보에 대응하는 제2 그래픽 요소를 상기 디스플레이 모듈에 출력하는 동작을 포함할 수 있다.A method implemented by a processor according to an exemplary embodiment includes an operation of outputting a first graphic element corresponding to first direction information calculated based on a first sensing value received from at least one sensor module to a display module; In response to the occurrence of an event for changing the size of the visible area of the display module, monitoring a change in the relative position between the outputting first graphic element and the at least one sensor module, determining that the relative position has changed , correcting the second direction information calculated based on the second sensing value received from the at least one sensor module based on the change in the relative position, and performing a second direction corresponding to the corrected second direction information. An operation of outputting a graphic element to the display module may be included.
예시적인 실시예에 따른 전자 장치는 디스플레이 모듈의 보여지는 영역의 크기 변경에도 어플리케이션 화면 내 사물의 위치에 대한 정보를 오차 없이 정확하게 사용자에게 표시 및 전달할 수 있다.The electronic device according to an exemplary embodiment can accurately display and deliver information about the position of an object in an application screen to a user without error even when the size of the visible area of the display module is changed.
도 1은, 예시적인 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.Fig. 1 is a block diagram of an electronic device in a network environment according to example embodiments.
도 2a 및 도 2b는 예시적인 실시예에 따른 폐쇄 상태 및 개방 상태를 나타낸 전자 장치의 전면 사시도이다. 도 3a 및 도 3b는 본 발명의 예시적인 실시예에 따른 폐쇄 상태 및 개방 상태를 나타낸 전자 장치의 후면 사시도이다.2A and 2B are front perspective views of an electronic device showing a closed state and an open state according to an exemplary embodiment. 3A and 3B are rear perspective views of an electronic device showing a closed state and an open state according to an exemplary embodiment of the present invention.
도 4a 내지 도 4f는 예시적인 실시예에 따른 디스플레이 길이 검출 모듈의 예시들을 도시한다.4A-4F show examples of a display length detection module according to an illustrative embodiment.
도 5는 예시적인 실시예(들)에 따른 전자 장치의 동작 방법을 도시한 흐름도이다.5 is a flowchart illustrating a method of operating an electronic device according to example embodiment(s).
도 6 내지 도 8은 예시적인 실시예(들)에 따른 전자 장치에서 센싱 기준점(sensing reference point)이 고정된 채 표시 기준점(display reference point)이 이동하는 경우의 방향 정보의 보정 및 그래픽 요소의 출력을 설명한다.6 to 8 illustrate correction of direction information and output of graphic elements when a display reference point is moved while a sensing reference point is fixed in an electronic device according to exemplary embodiment(s). explain
도 9 내지 도 12는 예시적인 실시예(들)에 따른 전자 장치에서 센싱 기준점이 이동하는 경우의 방향 정보의 보정 및 그래픽 요소의 출력을 설명한다.9 to 12 describe correction of direction information and output of graphic elements when a sensing reference point moves in an electronic device according to example embodiment(s).
도 13은 예시적인 실시예에 따른 전자 장치에서 보여지는 영역의 크기 변경에 따른 카메라 이미지의 시야각(field of view, FOV)의 조정을 설명하는 도면이다.13 is a diagram illustrating adjustment of a field of view (FOV) of a camera image according to a change in size of a visible area in an electronic device according to an exemplary embodiment.
도 14 및 도 15는 예시적인 실시예(들)에 따른 전자 장치에서 사용자 입력에 기초하여 보정치를 획득하기 위한 캘리브레이션 동작을 설명하는 도면이다.14 and 15 are diagrams illustrating a calibration operation for obtaining a correction value based on a user input in an electronic device according to example embodiment(s).
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted.
도 1은, 예시적인 실시예(들)에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 예시적인 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 예시적인 실시예에 따르면, 전자 장치(101)는 처리 회로를 포함하는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다. 예시적인 실시예에서는 센서 모듈(176)이 카메라 모듈(180) 및 통신 모듈(190)을 포함할 수도 있다.1 is a block diagram of an electronic device 101 within a network environment 100, according to example embodiment(s). Referring to FIG. 1 , in a network environment 100, an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an exemplary embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 . According to an exemplary embodiment, the electronic device 101 includes a processor 120 including a processing circuit, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module ( 170), sensor module 176, interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, A subscriber identification module 196 or an antenna module 197 may be included. In some embodiments, in the electronic device 101, at least one of these components (eg, the connection terminal 178) may be omitted or one or more other components may be added. In some embodiments, some of these components (eg, sensor module 176, camera module 180, or antenna module 197) are integrated into a single component (eg, display module 160). It can be. In an exemplary embodiment, the sensor module 176 may include a camera module 180 and a communication module 190 .
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 직접적으로 또는 간접적으로 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 예시적인 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 예시적인 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다. 여기서 각 프로세서는 처리 회로를 포함한다.The processor 120 may, for example, execute software (eg, the program 140) to directly or indirectly connect at least one other component of the electronic device 101 (eg, hardware or software component), and can perform various data processing or calculations. According to an exemplary embodiment, as at least part of data processing or operation, processor 120 may send instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. ), process the commands or data stored in the volatile memory 132, and store the resulting data in the non-volatile memory 134. According to an exemplary embodiment, the processor 120 may include a main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphics processing unit, a neural network processing unit) that may operate independently of or together with the main processor 121 . (NPU: neural processing unit), image signal processor, sensor hub processor, or communication processor). For example, when the electronic device 101 includes the main processor 121 and the auxiliary processor 123, the auxiliary processor 123 may use less power than the main processor 121 or be set to be specialized for a designated function. can The secondary processor 123 may be implemented separately from or as part of the main processor 121 . Here, each processor includes processing circuitry.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 예시적인 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 예시적인 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, running an application). ) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states. According to an exemplary embodiment, coprocessor 123 (eg, image signal processor or communication processor) may be implemented as part of another functionally related component (eg, camera module 180 or communication module 190). can According to an exemplary embodiment, the auxiliary processor 123 (eg, a neural network processing device) may include a hardware structure specialized for processing an artificial intelligence model. AI models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited. The artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples. The artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 . The data may include, for example, input data or output data for software (eg, program 140) and commands related thereto. The memory 130 may include volatile memory 132 or non-volatile memory 134 .
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive a command or data to be used by a component (eg, the processor 120) of the electronic device 101 from the outside of the electronic device 101 (eg, a user). The input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 예시적인 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the electronic device 101 . The sound output module 155 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. A receiver may be used to receive an incoming call. According to an exemplary embodiment, the receiver may be implemented separately from the speaker or as part of it.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 예시적인 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. 디스플레이 모듈(160)은 일측(예: 사용자가 위치된 측)에서 보여지는 영역(viewable region)의 크기 변경이 가능할 수 있고, 플렉서블 디스플레이라고도 나타낼 수 있다. 하기 도 2a 내지 도 3b에서 보여지는 영역의 크기를 변경 가능한 디스플레이 모듈(160)의 예시로서 롤러블 디스플레이를 설명한다.The display module 160 may visually provide information to the outside of the electronic device 101 (eg, a user). The display module 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to an exemplary embodiment, the display module 160 may include a touch sensor configured to detect a touch or a pressure sensor configured to measure the intensity of force generated by the touch. The display module 160 may be capable of changing the size of a viewable region on one side (eg, the side where the user is located), and may also be referred to as a flexible display. A rollable display will be described as an example of a display module 160 capable of changing the size of an area shown in FIGS. 2A to 3B.
전자 장치(101)는 디스플레이 길이 검출 모듈(예: 도 4a내지 도 4f의 디스플레이 길이 검출 모듈(430a, 430b, 430c, 430f))을 더 포함할 수 있다. 디스플레이 길이 검출 모듈은 디스플레이 모듈(160)의 보여지는 영역의 크기를 산출하기 위한 모듈일 수 있다. 디스플레이 길이 검출 모듈은 보여지는 영역의 기본 크기(default size) 대비 추가된 크기(additional size)에 대응하는 센싱값을 획득(또는, 수신)할 수 있다. 기본 크기는 도 2a 내지 도 3b에서 후술하는 폐쇄 상태에서의 보여지는 영역의 크기를 나타낼 수 있다. 추가된 크기는 보여지는 영역의 확장에 따라 기본 크기 대비 추가된 영역의 크기를 나타낼 수 있다. 보여지는 영역의 크기는 일축(예: x축)을 따른 길이로 표현될 수 있으며, 기본 크기(예: 기본 길이) 대비 추가된 크기(예: 추가된 길이)는 확장된 길이라고도 나타낼 수 있다. 디스플레이 길이 검출 모듈은 보여지는 영역의 크기 변경에 따른 커패시턴스 변화 센싱, 인덕턴스 변화 센싱, 자속 변화 센싱, 터치 지점 변화 센싱, 저항 변화 센싱, 및 거리 변화 센싱 중 적어도 하나에 기초하여, 전술한 추가된 크기에 대응하는 센싱 값을 획득(또는, 수신)할 수 있다. 디스플레이 길이 검출 모듈은 프로세서(120)에 작동적으로 연결되어 획득한(또는, 수신한) 센싱 값을 프로세서(120)로 전송할 수 있다. 디스플레이 길이 검출 모듈의 예시는 하기 도 4a 내지 도 4f에서 설명한다.The electronic device 101 may further include a display length detection module (eg, the display length detection modules 430a, 430b, 430c, and 430f of FIGS. 4A to 4F). The display length detection module may be a module for calculating the size of the visible area of the display module 160 . The display length detection module may obtain (or receive) a sensing value corresponding to an additional size compared to the default size of the displayed area. The basic size may indicate the size of a visible area in a closed state described below with reference to FIGS. 2A to 3B . The added size may indicate the size of the added area compared to the basic size according to the expansion of the displayed area. The size of the visible area may be expressed as a length along one axis (eg, x-axis), and an added size (eg, added length) compared to the basic size (eg, basic length) may also be expressed as an extended length. The display length detection module is based on at least one of sensing a change in capacitance, sensing a change in inductance, sensing a change in magnetic flux, sensing a change in a touch point, sensing a change in resistance, and sensing a change in distance according to a change in size of an area to be viewed, based on the aforementioned added size. A sensing value corresponding to may be acquired (or received). The display length detection module may be operatively connected to the processor 120 and transmit an acquired (or received) sensing value to the processor 120 . An example of the display length detection module is described below in FIGS. 4A-4F.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 예시적인 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 may convert sound into an electrical signal or vice versa. According to an exemplary embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg : Sound may be output through the electronic device 102) (eg, a speaker or a headphone).
적어도 하나의 센서 모듈(176)은 방향 정보를 산출하기 위한 센서를 포함할 수 있다. 방향 정보는 전자 장치(101)로부터 외부 위치(external location)를 향하는 방향을 나타내는 정보로서, 예를 들어, 진북 방향을 지시하는 방위각, 및 상기 적어도 하나의 센서 모듈을 이용하여 인식된 사물을 지시하는 방향 중 적어도 하나를 포함할 수 있다. 사물은 전자 장치(101)와 통신을 수립한 외부 기기(예: IoT 서버, 기지국, 및 IoT 기기) 및 비전 센서(예: 카메라 모듈)에 의해 캡처된 이미지로부터 식별된 오브젝트(object) 중 적어도 하나를 포함할 수 있다. 외부 위치는 전술한 외부 기기 및/또는 오브젝트의 물리적 위치(physical location)일 수 있다. 참고로, 본 명세서에서 방향 정보는 설명의 편의를 위해 전자 장치의 일축(예: x축)을 기준으로 표시 기준점으로부터 외부 위치(external location)를 향하는 방향 간의 각도로 설명되나, 이로 한정하는 것은 아니다. 방향 정보의 표현 방식, 단위 및 기준이 되는 축은 설계에 따라 달라질 수 있다.At least one sensor module 176 may include a sensor for calculating direction information. The direction information is information representing a direction from the electronic device 101 toward an external location, and includes, for example, an azimuth indicating a true north direction and an object recognized using the at least one sensor module. It may include at least one of the directions. The object is at least one of an external device (eg, an IoT server, a base station, and an IoT device) that has established communication with the electronic device 101 and an object identified from an image captured by a vision sensor (eg, a camera module). can include The external location may be a physical location of the aforementioned external device and/or object. For reference, in this specification, direction information is described as an angle between directions from a display reference point to an external location based on one axis (eg, x-axis) of an electronic device for convenience of description, but is not limited thereto. . The expression method of direction information, unit, and reference axis may vary depending on the design.
예를 들어, 상기 적어도 하나의 센서 모듈(176)은, 지자계 센서, 외부 기기와 통신을 수립하는 통신 모듈(190), 측위 모듈, 사물과의 거리를 검출하기 위한 거리 센서, 및 사물을 검출하기 위한 비전 센서 중 적어도 하나를 포함할 수 있다. 지자계 센서는 지구 자기장의 세기를 검출하는 센서로서, 지자계 센서의 센싱 값을 진북(true north) 및/또는 자북(magnetic north)을 지시하는 방향 정보를 산출하기 위해 사용될 수 있다. 통신 모듈(190)은 예시적으로 외부 사물 기기, 외부 서버, 및 외부 기지국 중 적어도 하나와 통신을 수립할 수 있다. 통신 모듈(190)은 주변에 위치된 외부 사물 기기와 블루투스 통신 또는 UWB(ultra-wideband) 통신을 수행할 수 있다. 측위 모듈은 전자 장치(101)의 측위를 위한 센서로서, 예를 들어 위성으로부터 GNSS(Global Navigation Satellite System) 신호(예: GPS(global positioning system) 신호)를 수신할 수 있다. 측위 모듈의 센싱 값에 기초하여 전자 장치(101)의 물리적 위치(예: 좌표)가 획득될 수 있다. 거리 센서는 예를 들어, ToF(time of flight) 센서, 라이다(LIDAR, light detection and ranging) 센서, 및 레이더(RADAR, radio detection and ranging) 센서) 중 적어도 하나를 포함할 수 있다. 비전 센서는 비전 이미지를 캡쳐하기 위한 센서로서, 예를 들어, 적외선(IR, infrared ray) 센서 및 카메라 모듈(180) 중 적어도 하나를 포함할 수 있다. 카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 예시적인 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 및 플래시 중 적어도 하나를 포함할 수 있다. 다만, 이로 한정하는 것은 아니고, 센서 모듈(176)은 전자 장치(101) 진북 방향을 센싱하기 위한 센서, 및/또는 사물을 향하는 방향을 센싱하기 위한 센서를 포함할 수 있다. 디스플레이 모듈(160)의 보여지는 영역 중 화면(예: 어플리케이션 화면)에 표시되는 방향 정보는 하나 또는 둘 이상의 센서들의 조합에 의한 센싱에 기초하여 산출될 수 있다.For example, the at least one sensor module 176 includes a geomagnetic field sensor, a communication module 190 for establishing communication with an external device, a positioning module, a distance sensor for detecting a distance to an object, and detecting an object. It may include at least one of vision sensors for A geomagnetic sensor is a sensor that detects the strength of the earth's magnetic field, and may be used to calculate direction information indicating true north and/or magnetic north from a sensed value of the geomagnetic sensor. The communication module 190 may illustratively establish communication with at least one of an external thing device, an external server, and an external base station. The communication module 190 may perform Bluetooth communication or ultra-wideband (UWB) communication with an external object device located nearby. The positioning module is a sensor for positioning the electronic device 101 and may receive, for example, a global navigation satellite system (GNSS) signal (eg, a global positioning system (GPS) signal) from a satellite. A physical location (eg, coordinates) of the electronic device 101 may be obtained based on a value sensed by the positioning module. The distance sensor may include, for example, at least one of a time of flight (ToF) sensor, a light detection and ranging (LIDAR) sensor, and a radio detection and ranging (RADAR) sensor. The vision sensor is a sensor for capturing a vision image, and may include, for example, at least one of an infrared ray (IR) sensor and a camera module 180 . The camera module 180 may capture still images and moving images. According to an exemplary embodiment, the camera module 180 may include at least one of one or more lenses, an image sensor, an image signal processor, and a flash. However, the present invention is not limited thereto, and the sensor module 176 may include a sensor for sensing a true north direction of the electronic device 101 and/or a sensor for sensing a direction toward an object. Among the visible areas of the display module 160, direction information displayed on a screen (eg, an application screen) may be calculated based on sensing by one or a combination of two or more sensors.
또한, 센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 예시적인 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 자이로 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. In addition, the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environment state (eg, a user state), and an electrical signal or data value corresponding to the detected state. can create According to an exemplary embodiment, the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a gyro sensor, a grip sensor, a proximity sensor, a color sensor, and an infrared (IR) sensor. , a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 예시적인 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102). According to an exemplary embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 예시적인 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102). According to an exemplary embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 예시적인 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses. According to an exemplary embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 예시적인 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 may manage power supplied to the electronic device 101 . According to an exemplary embodiment, power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 예시적인 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101 . According to an exemplary embodiment, the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 예시적인 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establishment and communication through the established communication channel may be supported. The communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication. According to an exemplary embodiment, the communication module 190 may be a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 ( Example: a local area network (LAN) communication module, or a power line communication module). Among these communication modules, a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a telecommunications network such as a computer network (eg, a LAN or a WAN). These various types of communication modules may be integrated as one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips). The wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199. The electronic device 101 may be identified or authenticated.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 예시적인 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology). NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)). -latency communications)) can be supported. The wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example. The wireless communication module 192 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported. The wireless communication module 192 may support various requirements defined for the electronic device 101, an external electronic device (eg, the electronic device 104), or a network system (eg, the second network 199). According to an exemplary embodiment, the wireless communication module 192 may include a peak data rate for eMBB realization (eg, 20 Gbps or more), a loss coverage for mMTC realization (eg, 164 dB or less), or a U-plane latency for URLLC realization. (e.g., 0.5 ms or less for downlink (DL) and uplink (UL), or 1 ms or less for round trip).
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 예시적인 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 예시적인 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 예시적인 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device). According to an exemplary embodiment, the antenna module 197 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to an exemplary embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from the plurality of antennas by the communication module 190, for example. can be chosen A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna. According to an exemplary embodiment, other components (eg, a radio frequency integrated circuit (RFIC)) may be additionally formed as a part of the antenna module 197 in addition to the radiator.
예시적인 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 예시적인 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to an exemplary embodiment, the antenna module 197 may form a mmWave antenna module. According to an exemplary embodiment, the mmWave antenna module is a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band). , And a plurality of antennas (eg, array antennas) disposed on or adjacent to the second surface (eg, the top surface or side surface) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band can include
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( e.g. commands or data) can be exchanged with each other.
예시적인 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 예시적인 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 예시적인 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 예시적인 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to an exemplary embodiment, commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 . Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 . According to an exemplary embodiment, all or part of operations executed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102 , 104 , or 108 . For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself. Alternatively or additionally, one or more external electronic devices may be requested to perform the function or at least part of the service. One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 . The electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed. To this end, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In an exemplary embodiment, the external electronic device 104 may include an internet of things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to an exemplary embodiment, the external electronic device 104 or server 108 may be included in the second network 199 . The electronic device 101 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
도 2a 및 도 2b는 예시적인 실시예(들)에 따른 폐쇄 상태 및 개방 상태를 나타낸 전자 장치(200)의 전면 사시도이다. 도 3a 및 도 3b는 예시적인 실시예(들)에 따른 폐쇄 상태 및 개방 상태를 나타낸 전자 장치(200)의 후면 사시도이다.2A and 2B are front perspective views of the electronic device 200 showing a closed state and an open state according to example embodiment(s). 3A and 3B are rear perspective views of the electronic device 200 showing a closed state and an open state according to example embodiment(s).
도 2a의 전자 장치(200)는 도 1의 전자 장치(101)와 적어도 일부 유사하거나, 전자 장치의 다른 실시예들을 더 포함할 수 있다.The electronic device 200 of FIG. 2A may be at least partially similar to the electronic device 101 of FIG. 1 or may further include other embodiments of the electronic device.
도 2a 내지 도 3b를 참고하면, 전자 장치(200)는 제1하우징(210) 및 제1하우징(210)과 적어도 부분적으로 이동 가능하게 결합되는 제2하우징(220)을 포함할 수 있다. 예시적인 실시예에 따르면, 제1하우징(210)은 제1플레이트(211), 제1플레이트(211)의 테두리를 따라 실질적으로 수직 방향(예: z 축 방향)으로 연장되는 제1측면 프레임(212)을 포함할 수 있다. 예시적인 실시예에 따르면, 제1측면 프레임(212)은 제1측면(2121), 제1측면(2121)의 일단으로부터 연장되는 제2측면(2122) 및 제1측면(2121)의 타단으로부터 연장되는 제3측면(2123)을 포함할 수 있다. 예시적인 실시예에 따르면, 제1하우징(210)은 제1플레이트(211)와 제1측면 프레임(212)을 통해 외부로부터 적어도 부분적으로 폐쇄된 제1공간을 포함할 수 있다. Referring to FIGS. 2A and 3B , the electronic device 200 may include a first housing 210 and a second housing 220 movably coupled to the first housing 210 at least partially. According to an exemplary embodiment, the first housing 210 includes a first side frame extending substantially in a vertical direction (eg, a z-axis direction) along an edge of the first plate 211 and the first plate 211 ( 212) may be included. According to an exemplary embodiment, the first side frame 212 is a first side 2121, a second side 2122 extending from one end of the first side 2121, and extending from the other end of the first side 2121 It may include a third side surface 2123 to be. According to an exemplary embodiment, the first housing 210 may include a first space at least partially closed from the outside through the first plate 211 and the first side frame 212 .
예시적인 실시예에 따르면, 제2하우징(220)은 제2플레이트(221), 제2플레이트(221)의 테두리를 따라 실질적으로 수직 방향(예: z 축 방향)으로 연장되는 제2측면 프레임(222)을 포함할 수 있다. 예시적인 실시예에 따르면, 제2측면 프레임(222)은 제1측면(2121)과 반대 방향으로 향하는 제4측면(2221), 제4측면(2221)의 일단으로부터 연장되고, 제2측면(2122)과 적어도 부분적으로 결합되는 제5측면(2222) 및 제4측면(2221)의 타단으로부터 연장되고, 제3측면(2123)과 적어도 부분적으로 결합되는 제6측면(2223)을 포함할 수 있다. 예시적인 실시예로, 제4측면(2221)은 제2플레이트(221)가 아닌 다른 구조물로부터 연장되고, 제2플레이트(221)에 결합될 수도 있다. 예시적인 실시예에 따르면, 제2하우징(220)은 제2플레이트(221)와 제2측면 프레임(222)을 통해 외부로부터 적어도 부분적으로 폐쇄된 제2공간을 포함할 수 있다. 예시적인 실시예에 따르면, 제1플레이트(211), 제2플레이트(221)는 적어도 부분적으로 전자 장치(200)의 후면을 형성하도록 배치될 수 있다. 예컨대, 제1플레이트(211), 제2플레이트(221), 제1측면 프레임(212) 및 제2측면 프레임(222)은 폴리머, 코팅 또는 착색된 유리, 세라믹, 금속(예: 알루미늄, 스테인레스 스틸(STS), 또는 마그네슘), 또는 상기 물질들 중 적어도 둘의 조합에 의하여 형성될 수 있다. According to an exemplary embodiment, the second housing 220 is a second side frame extending in a substantially vertical direction (eg, the z-axis direction) along the edges of the second plate 221 and the second plate 221 ( 222) may be included. According to an exemplary embodiment, the second side frame 222 extends from one end of the fourth side 2221 facing in the opposite direction to the first side 2121 and the fourth side 2221, and the second side 2122 ) and a sixth side surface 2223 extending from the other end of the fifth side surface 2222 and the fourth side surface 2221 at least partially coupled to the third side surface 2221 and at least partially coupled to the third side surface 2123 . As an exemplary embodiment, the fourth side surface 2221 may extend from a structure other than the second plate 221 and be coupled to the second plate 221 . According to an exemplary embodiment, the second housing 220 may include a second space at least partially closed from the outside through the second plate 221 and the second side frame 222 . According to an exemplary embodiment, the first plate 211 and the second plate 221 may be disposed to at least partially form a rear surface of the electronic device 200 . For example, the first plate 211, the second plate 221, the first side frame 212 and the second side frame 222 may be polymer, coated or colored glass, ceramic, metal (eg aluminum, stainless steel). (STS), or magnesium), or a combination of at least two of the above materials.
예시적인 실시예에 따르면, 전자 장치(200)는 제1하우징(210) 및 제2하우징(220)의 지지를 받도록 배치되는 플렉서블 디스플레이(230)를 포함할 수 있다. 예시적인 실시예에 따르면, 플렉서블 디스플레이(230)는 제2하우징(220)의 지지를 받는 평면부 및 평면부로부터 연장되고, 제1하우징(210)의 지지를 받는 굴곡 가능부를 포함할 수 있다. 예시적인 실시예에 따르면, 플렉서블 디스플레이(230)의 굴곡 가능부는, 전자 장치(200)가 폐쇄된 상태에서, 제1하우징(210)의 제1공간에서 외부로 노출되지 않도록 배치될 수 있으며, 전자 장치(200)가 개방된 상태에서, 제1하우징(210)의 지지를 받으면서 평면부로부터 연장되도록 외부로 노출될 수 있다. 따라서, 전자 장치(200)는 제2하우징(220)으로부터 제1하우징(210)의 이동에 따른 개방 동작에 따라, 플렉서블 디스플레이(230)의 표시 화면(예: 일측에서 보여지는 영역)이 확장되는 롤러블 타입(rollable type) 전자 장치일 수 있다.According to an exemplary embodiment, the electronic device 200 may include a flexible display 230 disposed to be supported by the first housing 210 and the second housing 220 . According to an exemplary embodiment, the flexible display 230 may include a flat portion supported by the second housing 220 and a bendable portion extending from the flat portion and supported by the first housing 210 . According to an exemplary embodiment, the bendable portion of the flexible display 230 may be disposed so as not to be exposed to the outside in the first space of the first housing 210 when the electronic device 200 is closed. When the device 200 is open, it may be exposed to the outside while being supported by the first housing 210 so as to extend from the flat surface. Therefore, the electronic device 200 expands the display screen (eg, the area viewed from one side) of the flexible display 230 according to the opening operation according to the movement of the first housing 210 from the second housing 220. It may be a rollable type electronic device.
예시적인 실시예에 따르면, 전자 장치(200)는 제1하우징(210)이, 제2하우징(220)의 제2공간에 적어도 부분적으로 삽입되고, 도시된 ① 방향으로 유동 가능하게 방식으로 결합될 수 있다. 예컨대, 전자 장치(200)는, 폐쇄 상태에서, 제1측면(2121)과 제4측면(2221)이 제1거리(d1)를 갖도록 제1하우징(210)과 제2하우징(220)의 결합된 상태가 유지될 수 있다. 예시적인 실시예에 따르면, 전자 장치(200)는, 개방 상태에서, 제1측면(2121)이 제4측면(2221)으로부터 일정 거리(d2)만큼 돌출된 제2이격 거리(d)를 갖도록 제1하우징(210)이 제2하우징(220)으로부터 돌출된 상태가 유지될 수 있다. 예시적인 실시예에 따르면, 플렉서블 디스플레이(230)는, 개방 상태에서, 양단부가 곡형으로 형성된 곡면 에지를 갖도록 제1하우징(210) 및/또는 제2하우징(220)의 지지를 받을 수도 있다.According to an exemplary embodiment, in the electronic device 200, the first housing 210 is at least partially inserted into the second space of the second housing 220 and coupled in a flexible manner in the direction ① shown. can For example, in the electronic device 200, in the closed state, the first housing 210 and the second housing 220 are coupled so that the first side surface 2121 and the fourth side surface 2221 have a first distance d1. status can be maintained. According to an exemplary embodiment, in an open state, the electronic device 200 is configured such that the first side surface 2121 has a second separation distance d protruding from the fourth side surface 2221 by a predetermined distance d2. A state in which the first housing 210 protrudes from the second housing 220 may be maintained. According to an exemplary embodiment, in an open state, the flexible display 230 may be supported by the first housing 210 and/or the second housing 220 so that both ends thereof have curved edges.
예시적인 실시예에 따르면, 전자 장치(200)는 제1공간 및/또는 제2공간에 배치되는 구동 유닛을 통해 자동으로, 개방 상태 및 폐쇄 상태로 천이될 수 있다. 예컨대, 전자 장치(200)의 프로세서(예: 도 1의 프로세서(120))는 전자 장치(200)의 개폐 상태 천이를 위한 이벤트를 검출하면, 구동 유닛을 통해 제1하우징(210)의 동작을 제어하도록 설정될 수 있다. 디스플레이 모듈의 보여지는 영역의 크기를 변경하는 구동 유닛은 모터를 포함할 수 있으나, 이로 한정하는 것은 아니고, 보여지는 영역의 크기 변경을 유발하는 전기적 및/또는 기계적 구동력을 제공하는 구동 모듈을 포함할 수 있다. 예시적인 실시예로, 제1하우징(210)은 사용자의 조작(예: 물리적 힘)을 통해 제2하우징(220)으로부터 수동으로 돌출될 수도 있다. 이러한 경우, 제1하우징(210)은 사용자가 원하는 돌출량으로 돌출 가능하며, 이로 인한 플렉서블 디스플레이(230)의 화면 역시 다양한 디스플레이 면적을 갖도록 가변될 수 있다. 예를 들어, 플렉서블 디스플레이(230)는 폐쇄 상태에서 기본 크기의 보여지는 영역을 가지고, 개방 상태에서 최대 또는 큰(large) 크기의 보여지는 영역을 가질 수 있다. 플렉서블 디스플레이(230)의 확장 및/또는 축소는 보여지는 영역이 기본 크기 및 최대 또는 큰 크기 사이의 일정 크기를 가지는 지점에서 중단될 수도 있다. 따라서, 전자 장치(200)의 프로세서(예: 도 1의 프로세서(120))는 제1하우징(210)의 일정 돌출량에 대응하는 디스플레이 면적에 대응하여, 다양한 방식으로 객체(예: 외부 사물을 나타내는 그래픽 요소)를 표시하고, 응용 프로그램을 실행하도록 제어할 수도 있다. 도 2a 내지 도 3b에서는 개폐 상태 천이를 이벤트를 검출할 시, 플렉서블 디스플레이(230)가 일방향으로 확장하는 예시가 도시되었으나, 이로 한정하는 것은 아니고, 플렉서블 디스플레이(230)는 다른 방향 또는 양방향으로 확장 가능할 수도 있다.According to an exemplary embodiment, the electronic device 200 may automatically transition into an open state and a closed state through a driving unit disposed in the first space and/or the second space. For example, when the processor (eg, the processor 120 of FIG. 1 ) of the electronic device 200 detects an event for transitioning the open/closed state of the electronic device 200, the operation of the first housing 210 is performed through a driving unit. can be set to control. The driving unit that changes the size of the visible area of the display module may include a motor, but is not limited thereto, and may include a driving module that provides electrical and/or mechanical driving force that causes the size of the visible area to change. can As an exemplary embodiment, the first housing 210 may be manually protruded from the second housing 220 through a user's manipulation (eg, physical force). In this case, the first housing 210 can protrude by a user's desired protrusion amount, and thus the screen of the flexible display 230 can also be changed to have various display areas. For example, the flexible display 230 may have a basic visible area in a closed state and a maximum or large visible area in an open state. The expansion and/or contraction of the flexible display 230 may be stopped at a point where the visible area has a predetermined size between the basic size and the maximum or large size. Accordingly, the processor (eg, the processor 120 of FIG. 1 ) of the electronic device 200 displays an object (eg, an external object) in various ways in response to a display area corresponding to a predetermined amount of protrusion of the first housing 210 . It can also be controlled to display graphic elements) and run an application program. 2A to 3B show an example in which the flexible display 230 expands in one direction when an open/closed state transition event is detected, but the present invention is not limited thereto, and the flexible display 230 may be expanded in another direction or in both directions. may be
예시적인 실시예에 따르면, 전자 장치(200)는, 입력 장치(203), 음향 출력 장치(206, 207), 센서 모듈(204, 217), 카메라 모듈(205, 216), 커넥터 포트(208), 키 입력 장치(미도시 됨) 또는 인디케이터(미도시 됨) 중 적어도 하나를 포함할 수 있다. 예시적인 실시예로, 상기 전자 장치(200)는, 상술한 구성 요소들 중 적어도 하나를 생략하거나 다른 구성 요소들이 추가적으로 포함될 수도 있다.According to an exemplary embodiment, the electronic device 200 includes an input device 203, sound output devices 206 and 207, sensor modules 204 and 217, camera modules 205 and 216, and a connector port 208. , a key input device (not shown), or an indicator (not shown). As an exemplary embodiment, the electronic device 200 may omit at least one of the above-described components or may additionally include other components.
예시적인 실시예에 따르면, 입력 장치(203)는, 마이크(203)를 포함할 수 있다. 어떤 실시예에서는, 입력 장치(203)는 소리의 방향을 감지할 수 있도록 배치되는 복수개의 마이크(203)를 포함할 수도 있다. 음향 출력 장치(206, 207)는 스피커들(206, 207)을 포함할 수 있다. 스피커들(206, 207)은, 외부 스피커(206) 및 통화용 리시버(207)를 포함할 수 있다. 예시적인 실시예로, 외부 스피커(206')가 제1하우징(210)에 배치될 경우, 폐쇄 상태에서, 제2하우징(220)에 형성된 스피커 홀(206)을 통해 음향이 출력되도록 구성될 수도 있다. 예시적인 실시예에 따르면, 마이크(203) 또는 커넥터 포트(208) 역시 실질적으로 동일한 구성을 갖도록 형성될 수도 있다. 예시적인 실시예로, 음향 출력 장치(206, 207)는 별도의 스피커 홀(206)이 배제된 채, 동작되는 스피커(예: 피에조 스피커)를 포함할 수도 있다.According to an exemplary embodiment, the input device 203 may include a microphone 203 . In some embodiments, the input device 203 may include a plurality of microphones 203 arranged to sense the direction of sound. The sound output devices 206 and 207 may include speakers 206 and 207 . The speakers 206 and 207 may include an external speaker 206 and a receiver 207 for communication. As an exemplary embodiment, when the external speaker 206' is disposed in the first housing 210, sound may be output through the speaker hole 206 formed in the second housing 220 in a closed state. there is. According to an exemplary embodiment, the microphone 203 or the connector port 208 may also be formed to have substantially the same configuration. As an exemplary embodiment, the sound output devices 206 and 207 may include an operated speaker (eg, a piezo speaker) while the separate speaker hole 206 is excluded.
예시적인 실시예에 따르면, 센서 모듈(204, 217)은, 전자 장치(200)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(204, 217)은, 예를 들어, 제2하우징(220)의 전면에 배치된 제1센서 모듈(204)(예: 근접 센서 또는 조도 센서) 및/또는 제2하우징(220)의 후면에 배치된 제2센서 모듈(217)(예: HRM 센서)를 포함할 수 있다. 예시적인 실시예에 따르면, 제1센서 모듈(204)은 제2하우징(220)에서, 플렉서블 디스플레이(230) 아래에 배치될 수 있다. 예시적인 실시예에 따르면, 제1센서 모듈(204)은 근접 센서, 조도 센서(204), TOF(time of flight) 센서, 초음파 센서, 지문 인식 센서, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서 또는 습도 센서 중 적어도 하나를 더 포함할 수 있다.According to an exemplary embodiment, the sensor modules 204 and 217 may generate electrical signals or data values corresponding to an internal operating state of the electronic device 200 or an external environmental state. The sensor modules 204 and 217 are, for example, the first sensor module 204 (eg, a proximity sensor or an illuminance sensor) disposed on the front surface of the second housing 220 and/or the second housing 220. A second sensor module 217 (eg, HRM sensor) disposed on the rear side may be included. According to an exemplary embodiment, the first sensor module 204 may be disposed below the flexible display 230 in the second housing 220 . According to an exemplary embodiment, the first sensor module 204 may include a proximity sensor, an ambient light sensor 204, a time of flight (TOF) sensor, an ultrasonic sensor, a fingerprint recognition sensor, a gesture sensor, a gyro sensor, an air pressure sensor, and a magnetic sensor. , an acceleration sensor, a grip sensor, a color sensor, an IR (infrared) sensor, a biosensor, a temperature sensor, or a humidity sensor.
예시적인 실시예에 따르면, 카메라 장치(205, 216)는, 전자 장치(200)의 제2하우징(220)의 전면에 배치된 제1카메라 장치(205), 및 제2하우징(220)의 후면에 배치된 제2카메라 장치(216)를 포함할 수 있다. 예시적인 실시예에 따르면, 전자 장치(200)는 제2카메라 장치(216) 근처에 위치되는 플래시(218)를 포함할 수 있다. 예시적인 실시예에 따르면, 카메라 장치들(205, 216)은, 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 예시적인 실시예에 따르면, 제1카메라 장치(205)는 플렉서블 디스플레이(230) 아래에 배치되고, 플렉서블 디스플레이(230)의 활성화 영역 중 일부를 통해 피사체를 촬영하도록 구성될 수도 있다. 예시적인 실시예에 따르면, 플래시(218)는, 예를 들어, 발광 다이오드 또는 제논 램프(xenon lamp)를 포함할 수 있다. 어떤 실시예에서는, 2개 이상의 렌즈들 (광각 및 망원 렌즈) 및 이미지 센서들이 상기 전자 장치(200)의 한 면에 배치될 수 있다.According to an exemplary embodiment, the camera devices 205 and 216 include the first camera device 205 disposed on the front side of the second housing 220 of the electronic device 200 and the rear side of the second housing 220. It may include a second camera device 216 disposed on. According to an exemplary embodiment, the electronic device 200 may include a flash 218 positioned near the second camera device 216 . According to an exemplary embodiment, the camera devices 205 and 216 may include one or a plurality of lenses, an image sensor, and/or an image signal processor. According to an exemplary embodiment, the first camera device 205 may be disposed under the flexible display 230 and photograph a subject through a part of an active area of the flexible display 230 . According to an exemplary embodiment, flash 218 may include, for example, a light emitting diode or a xenon lamp. In some embodiments, two or more lenses (wide angle and telephoto lenses) and image sensors may be disposed on one side of the electronic device 200 .
예시적인 실시예에 따르면, 전자 장치(200)는 적어도 하나의 안테나(미도시 됨)를 포함할 수 있다. 예시적인 실시예에 따르면, 적어도 하나의 안테나는, 예를 들어, 외부 전자 장치(예: 도 1의 전자 장치(104))와 무선으로 통신을 하거나, 충전에 필요한 전력을 무선으로 송수신할 수 있다. 예시적인 실시예에 따르면, 안테나는 legacy antenna, mmWave antenna, NFC(near field communication) 안테나, 무선 충전 안테나, 및/또는 MST(magnetic secure transmission) 안테나를 포함할 수 있다. 예시적인 실시예로, 금속으로 형성된 제1측면 프레임(212) 및/또는 제2측면 프레임(222)의 적어도 일부를 통해 안테나 구조가 형성될 수도 있다.According to an exemplary embodiment, the electronic device 200 may include at least one antenna (not shown). According to an exemplary embodiment, at least one antenna may wirelessly communicate with an external electronic device (eg, the electronic device 104 of FIG. 1 ) or wirelessly transmit/receive power required for charging. . According to an exemplary embodiment, the antenna may include a legacy antenna, mmWave antenna, near field communication (NFC) antenna, wireless charging antenna, and/or magnetic secure transmission (MST) antenna. As an exemplary embodiment, the antenna structure may be formed through at least a portion of the first side frame 212 and/or the second side frame 222 formed of metal.
본 문서에 개시된 예시적인 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 예시적인 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to exemplary embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an exemplary embodiment is not limited to the aforementioned devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 적어도 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or at least through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 예시적인 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. 그러므로, 여기서 각 "모듈"은 회로를 포함할 수 있다.The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to an exemplary embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC). Therefore, each "module" herein may include a circuit.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of this document provide one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101). It may be implemented as software (eg, the program 140) including them. For example, a processor (eg, the processor 120 ) of a device (eg, the electronic device 101 ) may call at least one command among one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.
예시적인 실시예에 따르면, 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an exemplary embodiment, the method may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.
도 4a 내지 도 4f는 예시적인 실시예에 따른 디스플레이 길이 검출 모듈의 예시들을 도시한다.4A-4F show examples of a display length detection module according to an illustrative embodiment.
도 1에서 전술한 바와 같이, 디스플레이 길이 검출 모듈은 보여지는 영역의 크기 변경에 따른 커패시턴스 변화 센싱, 인덕턴스 변화 센싱, 자속 변화 센싱, 터치 지점 변화 센싱, 저항 변화 센싱, 및 거리 변화 센싱 중 적어도 하나에 기초하여, 전술한 추가된 크기에 대응하는 센싱 값을 획득할 수 있다.As described above with reference to FIG. 1 , the display length detection module performs at least one of sensing a change in capacitance, sensing a change in inductance, sensing a change in magnetic flux, sensing a change in a touch point, sensing a change in resistance, and sensing a change in distance according to a size change of a visible area. Based on this, it is possible to obtain a sensing value corresponding to the aforementioned added size.
도 4a에서 디스플레이 모듈(460)(예: 도 1의 디스플레이 모듈(160))의 일단에 금속(410a)이 직접적으로 또는 간접적으로 연결될 수 있다. 전자 장치(예: 도 1의 전자 장치(101))의 내부 기판은 일축(예: x축)을 따라 서로 이격된 복수의 금속들(420a)을 포함할 수 있다. 디스플레이 모듈(460)에 연결된 금속(410a)과 기판 상에 배치된 금속들(420a) 간에 용량성 결합(capacitive coupling)이 형성될 수 있다. 금속(410a)은, 디스플레이 모듈(460)에서 보여지는 영역의 크기가 변하는 경우, 일축(예: x축)을 따라 이동될 수 있다. 전술한 바와 같이 기판 상에 배치된 금속들(420a)이 서로 이격되어 배치되므로, 금속(410a) 및 금속들(420a) 간의 용량성 결합에 따른 커패시턴스는 보여지는 영역의 크기 변화에 따라 달라질 수 있다. 디스플레이 길이 검출 모듈(430a)은 전술한 금속(410a) 및 금속들(420a) 간에 형성되는 용량성 결합에 의한 커패시턴스 값을 센싱할 수 있다. 커패시턴스 값은 디스플레이 모듈(460)에서 기본 크기 대비 추가된 부분의 일축 길이(예: x축 길이)에 대응하는 값으로 해석될 수 있다.In FIG. 4A , a metal 410a may be directly or indirectly connected to one end of the display module 460 (eg, the display module 160 of FIG. 1 ). An internal substrate of an electronic device (eg, the electronic device 101 of FIG. 1 ) may include a plurality of metals 420a spaced apart from each other along one axis (eg, the x-axis). A capacitive coupling may be formed between the metal 410a connected to the display module 460 and the metals 420a disposed on the substrate. The metal 410a may be moved along one axis (eg, the x-axis) when the size of the area shown on the display module 460 changes. As described above, since the metals 420a disposed on the substrate are spaced apart from each other, the capacitance due to the capacitive coupling between the metals 410a and 420a may vary depending on the size change of the visible area. . The display length detection module 430a may sense a capacitance value due to the capacitive coupling formed between the aforementioned metal 410a and the metals 420a. The capacitance value may be interpreted as a value corresponding to the one-axis length (eg, x-axis length) of the added portion compared to the basic size in the display module 460 .
도 4b에서 디스플레이 모듈(460)의 일단에 금속(410b)이 연결될 수 있다. 전자 장치의 내부 기판 상에는 일축(예: x축)을 따라 길게 형성된 코일(420b)이 배치될 수 있다. 디스플레이 모듈(460)에, 직접적으로 또는 간접적으로, 연결된 금속(410b)과 기판 상에 배치된 코일(420b) 간에 유도성 결합(inductive coupling)이 형성될 수 있다. 금속(410b)은, 디스플레이 모듈(460)에서 보여지는 영역의 크기가 변하는 경우, 일축(예: x축)을 따라 이동될 수 있다. 디스플레이 길이 검출 모듈(430b)은 전술한 금속(410b) 및 코일(420b) 간에 형성되는 유도성 결합에 의한 인덕턴스 값을 센싱할 수 있다. 인덕턴스 값은 디스플레이 모듈(460)에서 기본 크기 대비 추가된 부분의 일축 길이(예: x축 길이)에 대응하는 값으로 해석될 수 있다. 다만 이로 한정하는 것은 아니고, 디스플레이 길이 검출 모듈(430b)은 자화 된 금속(410b)의 자속 변화를 인식하거나, 전자 장치의 힌지(hinge) 내 자속의 회전 변화를 감지할 수도 있다.In FIG. 4B , a metal 410b may be connected to one end of the display module 460 . A coil 420b formed long along one axis (eg, the x-axis) may be disposed on an internal substrate of the electronic device. An inductive coupling may be formed between the metal 410b connected to the display module 460 directly or indirectly and the coil 420b disposed on the substrate. The metal 410b may be moved along one axis (eg, the x-axis) when the size of the area shown on the display module 460 changes. The display length detection module 430b may sense an inductance value due to the inductive coupling formed between the aforementioned metal 410b and the coil 420b. The inductance value may be interpreted as a value corresponding to the one-axis length (eg, x-axis length) of the added portion compared to the basic size in the display module 460 . However, the present invention is not limited thereto, and the display length detection module 430b may recognize a change in magnetic flux of the magnetized metal 410b or detect a change in rotation of magnetic flux within a hinge of an electronic device.
도 4c에서 디스플레이 모듈(460)의 일단에 디스플레이 길이 검출 모듈(430c)이, 직접적으로 또는 간접적으로, 연결될 수 있다. 디스플레이 길이 검출 모듈(430c)은 홀 센서(hall sensor)일 수 있다. 전자 장치의 내부 기판에 하나 이상의 자석(420c)이 배치될 수 있다. 보여지는 영역의 크기 변화에 따라 디스플레이 길이 검출 모듈(430c)과 자석(420c) 간의 거리가 달라지고, 디스플레이 길이 검출 모듈(430c)에서 센싱되는 자속이 달라질 수 있다. 디스플레이 길이 검출 모듈(430c)에서 센싱되는 자속 값 및/또는 자속 패턴은 디스플레이 모듈(460)에서 기본 크기 대비 추가된 부분의 일축 길이(예: x축 길이)에 대응하는 값으로 해석될 수 있다.In FIG. 4C , the display length detection module 430c may be directly or indirectly connected to one end of the display module 460 . The display length detection module 430c may be a hall sensor. One or more magnets 420c may be disposed on an inner substrate of the electronic device. According to the size change of the visible area, the distance between the display length detection module 430c and the magnet 420c may change, and the magnetic flux sensed by the display length detection module 430c may change. The magnetic flux value and/or the magnetic flux pattern sensed by the display length detection module 430c may be interpreted as a value corresponding to the uniaxial length (eg, x-axis length) of the added portion compared to the basic size in the display module 460 .
도 4d에서 전자 장치의 하우징은 디스플레이 모듈(460)의 터치 스크린 패널과 접촉 가능하게 배치된 도전체(410d)를 포함할 수 있다. 예시적으로 도전체(410d)는 디스플레이 패널의 곡선부와 접촉하는 것으로 도시되었으나, 이로 한정하는 것은 아니다. 디스플레이 모듈(460)에서 보여지는 영역의 크기가 변화하는 경우, 도전체(410d) 및 터치 스크린 패널 간의 접촉 위치가 달라질 수 있다. 디스플레이 길이 검출 모듈은 도전체(410d) 및 터치 스크린 패널 간의 접촉 좌표를 센싱 값으로서 센싱할 수 있다.In FIG. 4D , the housing of the electronic device may include a conductor 410d disposed to contact the touch screen panel of the display module 460 . Illustratively, the conductor 410d is shown as contacting the curved portion of the display panel, but is not limited thereto. When the size of the area shown on the display module 460 changes, the contact position between the conductor 410d and the touch screen panel may change. The display length detection module may sense contact coordinates between the conductor 410d and the touch screen panel as a sensing value.
도 4e에서 디스플레이 모듈(460)의 일단에 저항 스트립(420e)과, 직접적으로 또는 간접적으로, 연결되는 스와이퍼(410e)가 연결될 수 있다. 저항 스트립(420e)은 전자 장치의 내부 기판에서 일축(예: x축)을 따라 길게 형성될 수 있다. 스와이퍼(410e)와 저항 스트립(420e) 간에 접촉이 형성되는 지점에 따라, 저항 값이 달라질 수 있다. 디스플레이 길이 검출 모듈은 보여지는 영역의 추가된 영역에 대응하는 센싱 값으로서 저항 값을 센싱할 수 있다.In FIG. 4E , a resistance strip 420e and a wiper 410e connected directly or indirectly may be connected to one end of the display module 460 . The resistance strip 420e may be formed long along one axis (eg, the x-axis) of the internal substrate of the electronic device. A resistance value may vary according to a contact point between the wiper 410e and the resistance strip 420e. The display length detection module may sense the resistance value as a sensing value corresponding to the added area of the visible area.
도 4f에서 디스플레이 모듈(460)의 일단에 기구물(410f)이, 직접적으로 또는 간접적으로, 연결될 수 있다. 기구물(410f)은 디스플레이 길이 검출 모듈(430f)로부터 전송된 신호를 반사할 수 있다. 기구물(410f)은 보여지는 영역의 크기 변화에 따라 일축(예: x축)을 따라 이동될 수 있다. 디스플레이 길이 검출 모듈(430f)은 기구물(410f)로부터 반사된 신호에 기초한 센싱 값을 획득할 수 있다. 예를 들어, 디스플레이 길이 검출 모듈(430f)은 TOF(Time of Flight)에 기반하여 광원을 통해 기구물(410f)을 향해 신호(예: 빛)을 전송하고, 전송 신호 및 수신 신호 간의 시간차를 측정할 수 있다. 전송된 신호와 수신된 신호 간의 시간차(예: 위상차)는 거리로 변환될 수 있다. 다만 이로 한정하는 것은 아니고, 디스플레이 길이 검출 모듈(430f)은 반사된 빛의 광량을 측정할 수 있다. 광량이 거리로 변환될 수도 있다. 디스플레이 길이 검출 모듈(430f) 및 기구물(410f) 간의 거리는 보여지는 영역에서 추가된 영역의 일축 길이(예: x축 길이)에 대응할 수 있다. 예를 들어, 디스플레이 길이 검출 모듈(430f) 및 기구물(410f) 간의 거리가 증가하면 보여지는 영역에서 추가된 영역의 일축 길이가 증가할 수 있다. 다른 예를 들어, 디스플레이 길이 검출 모듈(430f) 및 기구물(410f) 간의 거리가 감소하면 보여지는 영역에서 추가된 영역의 일축 길이가 감소할 수 있다.In FIG. 4F , a device 410f may be directly or indirectly connected to one end of the display module 460 . The instrument 410f may reflect the signal transmitted from the display length detection module 430f. The mechanism 410f may be moved along one axis (eg, the x-axis) according to a change in the size of the visible area. The display length detection module 430f may obtain a sensing value based on a signal reflected from the object 410f. For example, the display length detection module 430f transmits a signal (eg, light) toward the object 410f through a light source based on Time of Flight (TOF), and measures a time difference between a transmission signal and a reception signal. can A time difference (eg, phase difference) between a transmitted signal and a received signal may be converted into a distance. However, the present invention is not limited thereto, and the display length detection module 430f may measure the amount of reflected light. A light quantity may be converted into a distance. The distance between the display length detection module 430f and the fixture 410f may correspond to the length of one axis (eg, the length of the x axis) of the area added in the visible area. For example, when the distance between the display length detection module 430f and the object 410f increases, the uniaxial length of the area added in the visible area may increase. For another example, when the distance between the display length detection module 430f and the object 410f decreases, the uniaxial length of the added area in the visible area may decrease.
도 5는 예시적인 실시예에 따른 전자 장치의 동작 방법을 도시한 흐름도이다.Fig. 5 is a flow chart showing an operating method of an electronic device according to an exemplary embodiment.
동작(510)에서 전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120))는 적어도 하나의 센서 모듈(예: 도 1의 센서 모듈(176))로부터 수신한 제1 센싱값에 기초하여 산출된 제1 방향 정보에 대응하는 제1 그래픽 요소를 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))에 출력할 수 있다. 그래픽 요소(graphical element)는 전자 장치로부터 사물 또는 진북을 향하는 방향을 나타내는 방향 그래픽 표현(direction graphic representation) 및 사물의 위치를 나타내는 위치 그래픽 표현 중 적어도 하나를 포함할 수 있다. 방향 그래픽 표현은 보여지는 영역의 어플리케이션 화면 내 표시 기준점(display reference point)에서 출력될 수 있다. 어플리케이션 화면은 방향 정보에 기초한 그래픽 요소를 제공하는 어플리케이션의 화면을 나타낼 수 있다. 어플리케이션 화면은 보여지는 영역의 전체 영역을 차지하거나, 일부 영역을 차지할 수 있다. 표시 기준점은 어플리케이션 화면 내 전자 장치의 위치를 나타내는 지점일 수 있다. 위치 그래픽 표현은 표시 기준점을 기준으로 방향 정보에 기초하여 결정된, 어플리케이션 화면 내에서 사물을 나타내는 지점에서 출력될 수 있다. 제1 센싱값은 후술하는 보여지는 영역의 크기 변경을 위한 이벤트의 발생 전의 센싱에 기초하여 획득될 수 있다.In operation 510, the electronic device (eg, the electronic device 101 of FIG. 1 or the processor 120 of FIG. 1 ) receives a first signal received from at least one sensor module (eg, the sensor module 176 of FIG. 1 ). A first graphic element corresponding to the first direction information calculated based on the sensed value may be output to a display module (eg, the display module 160 of FIG. 1 ). The graphic element may include at least one of a direction graphic representation indicating a direction from the electronic device toward an object or true north, and a location graphic representation indicating a location of the object. The directional graphic representation may be output at a display reference point within the application screen of the visible area. The application screen may represent a screen of an application providing graphic elements based on direction information. The application screen may occupy the entire area or a partial area of the displayed area. The display reference point may be a point indicating the position of the electronic device within the application screen. The location graphic representation may be output at a point indicating an object within the application screen, which is determined based on direction information with respect to the display reference point. The first sensing value may be obtained based on sensing before occurrence of an event for changing the size of a visible area, which will be described later.
동작(520)에서 전자 장치는 디스플레이 모듈의 보여지는 영역의 크기 변경을 위한 이벤트의 발생에 응답하여, 출력 중인 제1 그래픽 요소 및 적어도 하나의 센서 모듈 간의 상대적 위치의 변화를 모니터링할 수 있다. 보여지는 영역의 크기 변경을 위한 이벤트는, 보여지는 영역의 크기 변화를 유발하는 사용자 입력, 통신을 통해 수신된 디스플레이 크기를 변화시키는 이벤트, 및/또는 어플리케이션에 의해 디스플레이 크기 변화를 트리거(trigger)하는 이벤트 중 적어도 하나를 포함할 수 있다. 그래픽 요소(예: 제1 그래픽 요소) 및 센서 모듈 간의 상대적 위치는 표시 기준점 및 센싱 기준점 간의 상대적 위치일 수 있다.In operation 520, the electronic device may monitor a change in relative position between the first graphic element being output and the at least one sensor module in response to an event for changing the size of the visible area of the display module. The event for changing the size of the displayed area may be a user input causing a size change of the displayed area, an event for changing the display size received through communication, and/or a display size change triggered by an application. At least one of the events may be included. A relative position between the graphic element (eg, the first graphic element) and the sensor module may be a relative position between a display reference point and a sensing reference point.
예를 들어, 센싱 기준점은 센서 모듈의 물리적 위치일 수 있다. 센서 모듈은, 보여지는 영역의 크기가 변화할 때, 전자 장치의 구조에 따라 전자 장치 내에서 이동되거나 고정될 수 있다. 표시 기준점은 보여지는 영역의 크기 변화에 기초한 어플리케이션 화면의 면적 변화 및/또는 위치 변화에 의해 이동되거나, 어플리케이션 화면 내 전자 장치의 위치를 나타내는 지점의 변화에 의해 이동될 수 있다.For example, the sensing reference point may be a physical location of a sensor module. The sensor module may be moved or fixed within the electronic device according to the structure of the electronic device when the size of the area to be viewed changes. The display reference point may be moved by a change in the area and/or location of the application screen based on a change in the size of the displayed area, or may be moved by a change in a point representing the location of the electronic device within the application screen.
동작(530)에서 전자 장치는 상대적 위치가 변화한 것으로 판단되면, 적어도 하나의 센서 모듈로부터 수신한 제2 센싱값에 기초하여 산출된 제2 방향 정보를 상대적 위치의 변화에 기초하여 보정할 수 있다. 예를 들어, 전자 장치는 센싱 기준점 및 표시 기준점 간의 상대적 위치(예: 거리)가 변화한 경우 제2 방향 정보를 보정할 수 있다. 제2 센싱값은 제1 센싱값의 센싱 시점 이후에 획득된 값으로서, 보여지는 영역의 크기 변경이 개시된 후에 센싱되는 값일 수 있다. 예를 들어, 제2 센싱값은 보여지는 영역의 크기 변화에 의해 적어도 하나의 센서 모듈이 이동하는 경우 제1 센싱값과 다른 값을 가질 수 있다. 다른 예를 들어, 제2 센싱 값은 적어도 하나의 센서 모듈의 위치가 고정된 경우, 제1 센싱값과 같은 값을 가질 수 있다. 전자 장치는 제2 방향 정보의 재계산 수행, 보정치를 산출하여 제2 방향 정보에 적용 및 이전에 기록된 보정치를 제2 방향 정보에 적용 중 적어도 하나를 수행함으로써, 제2 방향 정보를 보정할 수 있다.In operation 530, when it is determined that the relative position has changed, the electronic device may correct second direction information calculated based on the second sensing value received from at least one sensor module based on the change in relative position. . For example, the electronic device may correct the second direction information when a relative position (eg, distance) between the sensing reference point and the display reference point changes. The second sensed value may be a value obtained after a sensing time of the first sensed value, and may be a value sensed after a size change of the visible area starts. For example, the second sensing value may have a different value from the first sensing value when at least one sensor module moves due to a change in the size of the visible area. For another example, the second sensing value may have the same value as the first sensing value when the position of at least one sensor module is fixed. The electronic device may correct the second direction information by performing at least one of recalculating the second direction information, calculating and applying a correction value to the second direction information, and applying a previously recorded correction value to the second direction information. there is.
하기 도 6 내지 도 8에서는 보여지는 영역의 크기 변경에 따라 센서 모듈의 위치(예: 센싱 기준점)이 고정되고, 어플리케이션 화면 내 그래픽 요소의 위치(예: 표시 기준점)가 이동하는 예시가 설명된다. 하기 도 9 내지 도 11에서는 보여지는 영역의 크기 변경에 따라 센싱 기준점이 이동하고 표시 기준점이 고정되는 예시가 설명된다. 하기 도 12에서는 보여지는 영역의 크기 변경에 따라 센싱 기준점 및 표시 기준점이 둘 다 이동되는 예시가 설명된다.In FIGS. 6 to 8 , an example in which the position of the sensor module (eg, a sensing reference point) is fixed and the position of a graphic element (eg, a display reference point) in an application screen moves according to a change in size of a visible area is described. In FIGS. 9 to 11 , an example in which a sensing reference point is moved and a display reference point is fixed according to a change in size of a visible area will be described. In FIG. 12 , an example in which both the sensing reference point and the display reference point are moved according to the size change of the visible area is described.
동작(540)에서 전자 장치는 보정된 제2 방향 정보에 대응하는 제2 그래픽 요소를 디스플레이 모듈에 출력할 수 있다. 예를 들어, 전자 장치는 제1 그래픽 요소를 보정된 제2 방향 정보에 기초하여 회전 및/또는 이동시킨 제2 그래픽 요소를 출력할 수 있다.In operation 540, the electronic device may output a second graphic element corresponding to the corrected second direction information to the display module. For example, the electronic device may output a second graphic element obtained by rotating and/or moving the first graphic element based on corrected second direction information.
전술한 동작들에서는 상대적 위치가 변경되는 예시를 주로 설명하였다. 전자 장치는 상대적 위치가 유지되는 것에 기초하여, 제2 센싱값에 기초하여 산출된 제2 방향 정보를 이용하여 제2 그래픽 요소를 디스플레이 모듈에 출력할 수 있다. 전자 장치는 상대적 위치의 변경이 없는 경우, 보정 없이 제2 방향 정보를 이용하여 제2 그래픽 요소를 출력할 수 있다.In the above-described operations, an example in which a relative position is changed has been mainly described. Based on the relative position being maintained, the electronic device may output the second graphic element to the display module by using the second direction information calculated based on the second sensed value. When there is no change in the relative position, the electronic device may output the second graphic element using the second direction information without correction.
예시적인 실시예에 따른 전자 장치는 근거리 사물의 위치와 관련된 서비스(예: 근거리 사물 찾기 서비스)를 제공하는 어플리케이션을 실행할 수 있다. 예를 들어, 전자 장치는 영상 없이 방향 정보에 대응하는 그래픽 요소를 출력하는 어플리케이션 및/또는 카메라 모듈에 의해 캡쳐된 카메라 이미지 및 사물에 대응하는 그래픽 요소를 함께 표시하는 증강현실(AR, augmented reality) 어플리케이션을 실행할 수 있다. 증강현실 어플리케이션에서 사물에 대응하는 그래픽 요소는 전자 장치 및 사물 간의 근거리 측위(예: 거리 및 방향)에 기초하여 결정된 어플리케이션 화면 내 위치에 출력될 수 있다. 전자 장치는 외부 위치(예: 사물 및/또는 진북의 위치)를 향하는 방향 및/또는 거리를 어플리케이션 화면 내 자신의 위치에 대응하는 지점(예: 표시 기준점)에서 그래픽 요소를 통해 출력할 수 있다. 다른 예를 들어, 전자 장치는 카메라 이미지 상에 사물의 위치를 나타내는 거리 및 방향에 대응하는 어플리케이션 화면 내 지점에 그래픽 요소를 출력할 수 있다.An electronic device according to an exemplary embodiment may execute an application providing a service related to the location of a local object (eg, a local object search service). For example, the electronic device uses augmented reality (AR) to display a camera image captured by an application and/or a camera module that outputs a graphic element corresponding to direction information without an image and a graphic element corresponding to an object together. You can run your application. In the augmented reality application, a graphic element corresponding to an object may be output at a position within the application screen determined based on a short-range positioning (eg, distance and direction) between the electronic device and the object. The electronic device may output a direction and/or distance toward an external location (eg, the location of an object and/or true north) through a graphic element at a point (eg, a display reference point) corresponding to its own location in an application screen. For another example, the electronic device may output a graphic element at a point in the application screen corresponding to the distance and direction representing the position of the object on the camera image.
전자 장치는 자체 움직임에 따라 전자 장치의 위치가 변화하는 경우, 방향 정보 및 거리를 재측정하거나, 이동량에 따른 보정을 수행할 수 있다. 또한, 전자 장치는 디스플레이 모듈에서 보여지는 영역의 크기 변경에 대응하여 센싱된 제2 방향 정보를 센서 모듈 및 그래픽 요소 간의 상대적 위치 변화에 기초하여 보정할 수 있다. 따라서 전자 장치는 센서 모듈의 이동에 따른 센싱 기준점의 변화 및/또는 그래픽 요소의 이동에 따른 표시 기준점의 변화를 제2 방향 정보에 보정함으로써 외부 위치를 지시하는 그래픽 요소를 오차 없이 출력할 수 있다.When the position of the electronic device changes according to its own movement, the electronic device may remeasure direction information and distance or perform correction according to the amount of movement. In addition, the electronic device may correct the sensed second direction information corresponding to the change in size of the area shown on the display module based on a change in relative position between the sensor module and the graphic element. Therefore, the electronic device can output the graphic element indicating the external position without error by correcting the change of the sensing reference point according to the movement of the sensor module and/or the change of the display reference point according to the movement of the graphic element to the second direction information.
도 6 내지 도 8은 예시적인 실시예에 따른 전자 장치에서 센싱 기준점(sensing reference point)이 고정된 채 표시 기준점(display reference point)이 이동하는 경우의 방향 정보의 보정 및 그래픽 요소의 출력을 설명한다.6 to 8 illustrate correction of direction information and output of graphic elements when a display reference point is moved while a sensing reference point is fixed in an electronic device according to an exemplary embodiment. .
전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120))는 디스플레이 모듈에서 보여지는 영역(760)의 크기 변경을 위한 이벤트가 검출(또는, 발생, 수신)되지 않는 동안 센서 모듈(예: 도 1의 센서 모듈(176))의 제1 센싱값을 획득할 수 있다. 전자 장치는 제1 센싱값에 기초하여 제1 표시 기준점(711)으로부터 외부 위치를 향하는 방향을 지시하는 제1 방향 정보를 결정할 수 있다. 제1 표시 기준점(711)은, 보여지는 영역(760)의 크기 변경 전 그래픽 요소의 출력 기준이 되는 보여지는 영역(760) 내 지점으로서, 전자 장치의 위치를 나타내는 지점일 수 있다.While the electronic device (eg, the electronic device 101 of FIG. 1 or the processor 120 of FIG. 1 ) does not detect (or generate or receive) an event for changing the size of the region 760 shown on the display module, A first sensed value of a sensor module (eg, the sensor module 176 of FIG. 1 ) may be obtained. The electronic device may determine first direction information indicating a direction from the first display reference point 711 toward an external location based on the first sensed value. The first display reference point 711 is a point within the visible area 760 serving as an output standard for graphic elements before the size of the visible area 760 is changed, and may be a point indicating the location of an electronic device.
동작(610)에서 전자 장치는 센서 모듈이 고정된 채, 보여지는 영역(760)의 크기 변경을 위한 이벤트를 검출(또는, 확인, 수신)할 수 있다. 예를 들어, 전자 장치는 모터 구동 및/또는 외력에 의해 유발된 보여지는 영역(760)의 크기 변경을 검출할 수 있다.In operation 610, the electronic device may detect (or confirm or receive) an event for changing the size of the visible area 760 while the sensor module is fixed. For example, the electronic device may detect a size change of the visible area 760 caused by driving a motor and/or an external force.
동작(620)에서 전자 장치는 보여지는 영역(760)의 변경된 크기를 획득할 수 있다. 예를 들어, 전자 장치가 모터 구동을 통해 보여지는 영역(760)의 크기 변경을 수행하는 경우, 전자 장치는 모터 구동 정보(예: 모터의 회전수 및 회전당 변경 길이)에 기초하여 보여지는 영역(760)의 변경될 크기(예: 일축 길이)를 예측할 수 있다. 다른 예를 들어, 전자 장치는 디스플레이 길이 검출 모듈의 센싱에 기초하여 보여지는 영역(760)에서 기본 크기(예: 기본 길이) 대비 추가된 크기(예: 추가된 길이)를 획득할 수도 있다. 보여지는 영역(760)에서 기본 길이 대비 추가된 길이를 확장 길이 e라고도 나타낼 수 있다. 예를 들어, 전자 장치는 보여지는 영역(760)의 추가된 영역에 대응하는 확장 길이 e를 획득할 수 있다.In operation 620, the electronic device may acquire the changed size of the visible area 760. For example, when the electronic device changes the size of the visible region 760 by driving a motor, the electronic device may change the size of the visible region 760 based on motor driving information (eg, the number of revolutions of the motor and the change length per revolution). The size to be changed (eg, uniaxial length) of 760 can be predicted. For another example, the electronic device may obtain an added size (eg, added length) compared to the basic size (eg, basic length) in the visible area 760 based on the sensing of the display length detection module. In the visible area 760, the length added to the basic length may also be referred to as the extended length e. For example, the electronic device may obtain an extended length e corresponding to the added area of the visible area 760 .
동작(630)에서 전자 장치는 그래픽 요소(예: 방향 그래픽 표현)의 이동 길이 s를 산출할 수 있다. 예를 들어, 전자 장치는 보여지는 영역(760)의 크기 변경에 따른 제1 그래픽 요소의 이동 길이 s를 산출할 수 있다. 전자 장치는 전술한 동작(620)에서 획득된 변경된 크기에 기초하여 표시 기준점의 이동 길이 s를 결정할 수 있다. 제2 표시 기준점(712)은 보여지는 영역(760)의 크기 변경이 완료된 후의 표시 기준점으로서, 제1 표시 기준점(711)으로부터 이동 길이 s만큼 이동된 지점일 수 있다. 도 7에 도시된 예시에서 표시 기준점은 어플리케이션 화면에서 일축(예: x축) 상에서 중심 지점에 위치되고, 전술한 확장 길이 e의 절반만큼 이동될 수 있다. 전자 장치는 확장 길이 e의 절반을 표시 기준점의 이동 길이 s로 결정할 수 있다. 표시 기준점에서 출력되는 방향 그래픽 표현도 이동 길이 s만큼 이동될 수 있다.In operation 630, the electronic device may calculate a movement length s of a graphic element (eg, a direction graphic expression). For example, the electronic device may calculate the movement length s of the first graphic element according to the size change of the visible area 760 . The electronic device may determine the movement length s of the display reference point based on the changed size obtained in operation 620 described above. The second display reference point 712 is a display reference point after the size change of the visible area 760 is completed, and may be a point moved from the first display reference point 711 by a movement length s. In the example shown in FIG. 7 , the display reference point is located at the center point on one axis (eg, the x-axis) of the application screen and can be moved by half of the extension length e described above. The electronic device may determine half of the extension length e as the movement length s of the display reference point. The directional graphic expression output from the display reference point may also be moved by the movement length s.
비교 실시예에 따르면 제2 표시 기준점(712)에서 제1 방향 정보에 기초하여 결정된 위치 그래픽 표현들이 표시되는 지점들(721)은 제2 표시 기준점(712)으로부터 실제 사물(790)의 물리적 위치를 향하는 방향에 대응하는 선(line)으로부터 벗어날 수 있다. 또한, 위치 그래픽 표현들이 표시되는 지점들(721)의 위치 오차 뿐만 아니라, 제2 표시 기준점(712)에서 표시되는 방향 그래픽 표현이 지시하는 방향에서도 오차가 발생할 수 있다. 비교 실시예에서는 센서 모듈의 제1 센싱값에 기초한 제1 방향 정보 및 제2 센싱값에 기초한 제2 방향 정보가 동일하지만, 표시 기준점이 변화하였으므로 오차가 발생할 수 있다. 비교 실시예에서는 제2 표시 기준점(712) 및 제1 표시 기준점(711) 간의 위치 차이(예: 이동 길이 s)에 대응하는 오차가 발생할 수 있다. 확장 길이 e가 증가할수록 이동 길이 s가 증가하므로, 보정 없는 제2 방향 정보와 실제 사물(790)을 향하는 방향 간의 오차가 증가할 수 있다. 설명의 편의를 위하여 디스플레이 모듈의 보여지는 영역(760)이 확장되는 예시를 주로 설명하였으나, 이로 한정하는 것은 아니다. 비교 실시예에서는 보여지는 영역(760)의 크기가 축소되는 경우에도 유사한 오차가 발생할 수 있다.According to the comparative embodiment, the points 721 at which the positional graphic representations determined based on the first direction information are displayed at the second display reference point 712 indicate the physical position of the real object 790 from the second display reference point 712. You can deviate from the line corresponding to the direction you are facing. In addition, an error may occur in a direction indicated by a direction graphic expression displayed at the second display reference point 712 as well as a position error of the points 721 on which the location graphic representations are displayed. In the comparative embodiment, the first direction information based on the first sensed value of the sensor module and the second direction information based on the second sensed value are the same, but an error may occur because the display reference point has changed. In the comparative example, an error corresponding to a positional difference (eg, movement length s) between the second display reference point 712 and the first display reference point 711 may occur. Since the movement length s increases as the extension length e increases, an error between the second direction information without correction and the direction toward the real object 790 may increase. For convenience of explanation, an example in which the visible area 760 of the display module is expanded has been mainly described, but is not limited thereto. In the comparative example, a similar error may occur even when the size of the visible area 760 is reduced.
동작(640)에서 전자 장치는 센서 모듈의 센싱값에 기초한 방향 정보를 보정할 수 있다. 예시적인 실시예에 따른 전자 장치는 제1 그래픽 요소(예: 방향 그래픽 표현)의 이동 길이 s, 제1 그래픽 요소에 대응하는 물리적 위치(physical location)까지의 거리 D, 및 제1 방향 정보(예: x축을 기준으로 제1 표시 기준점(711)으로부터 외부 위치를 향하는 방향 간의 각도 a)에 기초하여 제2 방향 정보(예: x축을 기준으로 제2 표시 기준점(712)으로부터 외부 위치를 향하는 방향 간의 보정된 각도 b)를 보정할 수 있다.In operation 640, the electronic device may correct direction information based on the sensed value of the sensor module. An electronic device according to an exemplary embodiment may include a movement length s of a first graphic element (eg, a direction graphic representation), a distance D to a physical location corresponding to the first graphic element, and first direction information (eg, direction graphic representation). : Based on the angle a) between directions from the first display reference point 711 toward the external location on the basis of the x-axis, second direction information (eg, between the direction from the second display reference point 712 to the external location on the basis of the x-axis) The corrected angle b) can be corrected.
예를 들어, 전자 장치는 각도 a 및 거리 D에 기초하여 사물(790)로부터 제1 표시 기준점(711) 간의 일축 길이(예: x축 길이) dx 및 타축 길이(예: y축 길이) dy를 산출할 수 있다. 전자 장치는 dx=D×cos(a) 및 dy=D×sin(a)에 기초하여 일축 길이 dx 및 타축 길이 dy를 획득할 수 있다. 전자 장치는 b=tan-1(dy/(dx+s))에 기초하여 보정된 각도 b를 산출할 수 있다. 보여지는 영역(760)의 크기 변경량이 증가할수록, 표시 기준점의 이동 길이 s가 증가할 수 있다. 어플리케이션 화면 내에서 표시 기준점으로부터 y축으로 멀리 표시된 사물(790)에 대응하는 그래픽 요소에 보다 큰 보정치가 적용될 수 있다.For example, the electronic device may determine one axis length (eg, x-axis length) d x and other axis length (eg, y-axis length) d between the object 790 and the first display reference point 711 based on the angle a and the distance D. y can be calculated. The electronic device may obtain the length of one axis d x and the length of another axis d y based on d x =D×cos(a) and d y =D×sin(a). The electronic device may calculate the corrected angle b based on b = tan -1 (d y /(d x +s)). As the size change amount of the visible area 760 increases, the movement length s of the display reference point may increase. A larger correction value may be applied to a graphic element corresponding to an object 790 displayed far from the display reference point along the y-axis within the application screen.
다른 예를 들어, 전자 장치는 캘리브레이션 정보를 이용하여 제2 방향 정보를 보정할 수도 있다. 캘리브레이션 정보는 적어도 하나의 센서 모듈의 센싱값에 대해 미리 계산된 보정치를 포함할 수 있다. 캘리브레이션 정보는 적어도 하나의 센서 모듈의 복수의 센싱값들에 대해 제1 그래픽 요소(예: 표시 기준점에 배치되는 방향 그래픽 표현)의 이동 길이들에 대응하는 보정치들을 포함할 수 있다. 캘리브레이션 정보의 보정치는 이동 길이들, 외부 위치와 전자 장치 간의 거리들, 및 보여지는 영역(760)에서 기본 길이 대비 추가된 길이들 별로 미리 계산되어 저장될 수 있다.For another example, the electronic device may correct the second direction information using the calibration information. The calibration information may include a pre-calculated correction value for a sensing value of at least one sensor module. The calibration information may include correction values corresponding to movement lengths of a first graphic element (eg, a directional graphic expression disposed at a display reference point) with respect to a plurality of sensed values of at least one sensor module. Correction values of the calibration information may be pre-calculated and stored for each movement length, distances between the external location and the electronic device, and additional lengths compared to the basic length in the visible area 760 .
동작(650)에서 전자 장치는 보정된 방향 정보를 이용하여 그래픽 요소를 출력할 수 있다. 예를 들어, 전자 장치는 적어도 하나의 센서 모듈이 고정된 채 보여지는 영역(760)이 증가하는 것에 기초하여, 제1 그래픽 요소에 제1 회전 방향으로 회전 및 제1 이동 방향으로 이동 중 적어도 하나를 적용함으로써 제2 그래픽 요소를 생성할 수 있다. 다른 예를 들어, 전자 장치는 적어도 하나의 센서 모듈이 고정된 채 보여지는 영역(760)이 감소하는 것에 기초하여, 제1 그래픽 요소를 제1 회전 방향과 다른 제2 회전 방향으로 회전 및 제1 이동 방향과 다른 제2 이동 방향으로 이동 중 적어도 하나를 적용함으로써 제2 그래픽 요소를 생성할 수 있다. 전자 장치는 보여지는 영역(760)의 크기 변경량(size change amount)에 대응하는 각도만큼 회전 및 크기 변경량에 대응하는 변위만큼 이동 중 적어도 하나를 제1 그래픽 요소에 적용한 제2 그래픽 요소를 출력할 수 있다. 예를 들어, 도 7에서 전자 장치는 제2 표시 기준점(712)으로부터 보정된 제2 방향 정보에 대응하는 선(line) 상의 지점들(722) 위치 방향 그래픽 표현을 배치하여 출력할 수 있다.In operation 650, the electronic device may output a graphic element using the corrected direction information. For example, the electronic device may perform at least one of rotation in a first rotation direction and movement in a first movement direction of the first graphic element based on an increase in the visible area 760 with at least one sensor module fixed thereto. A second graphic element may be created by applying . For another example, the electronic device rotates the first graphic element in a second rotation direction different from the first rotation direction based on the reduction of the visible area 760 with the at least one sensor module fixed, and the first rotation direction. A second graphic element may be created by applying at least one of the movements in a second movement direction different from the movement direction. The electronic device outputs a second graphic element obtained by applying at least one of rotation by an angle corresponding to the size change amount of the visible area 760 and movement by a displacement corresponding to the size change amount to the first graphic element. can do. For example, in FIG. 7 , the electronic device may arrange and output a graphic representation of the location and direction of points 722 on a line corresponding to the corrected second direction information from the second display reference point 712 .
도 7에서는 주로 위치 방향 그래픽 표현의 보정을 설명하였는데, 도 8에서는 방향 그래픽 표현의 보정을 설명한다. 예를 들어, 전자 장치는 보여지는 영역의 확장 이벤트에 응답하여, 제1 방향 정보에 대응하는 제1 그래픽 요소(예: 제1 방향 그래픽 표현(811))를 보여지는 영역의 제1 크기 변경량에 대응하는 각도만큼 회전시킨 제2 그래픽 요소(예: 제2 방향 그래픽 표현(812))를 출력할 수 있다. 전자 장치는 보여지는 영역이 제1 크기 변경량보다 큰 제2 크기 변경량만큼 확장되는 경우에도, 제1 방향 그래픽 표현(821)을 회전시킨 제2 방향 그래픽 표현(822)을 출력할 수 있다.In FIG. 7, the correction of the positional direction graphic expression has been mainly described, but in FIG. 8, the correction of the direction graphic expression has been described. For example, the electronic device displays a first graphic element (eg, the first direction graphic representation 811) corresponding to the first direction information in response to an expansion event of the displayed area, a first size change amount of the displayed area. A second graphic element rotated by an angle corresponding to (eg, the second direction graphic expression 812) may be output. The electronic device may output a second direction graphic representation 822 obtained by rotating the first direction graphic representation 821 even when the visible area is expanded by a second size change amount greater than the first size change amount.
도 9 내지 도 12는 예시적인 실시예에 따른 전자 장치에서 센싱 기준점이 이동하는 경우의 방향 정보의 보정 및 그래픽 요소의 출력을 설명한다.9 to 12 describe correction of direction information and output of graphic elements when a sensing reference point moves in an electronic device according to an exemplary embodiment.
동작(910)에서 전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120))는 센서 모듈(예: 도 1의 센서 모듈(176))의 이동을 수반하는 보여지는 영역(1060)의 크기 변경을 위한 이벤트를 검출(또는, 확인, 수신)할 수 있다. 센서 모듈만 이동하고 표시 기준점은 고정되거나, 센서 모듈과 함께 표시 기준점이 이동될 수 있다. 도 9 내지 도 11에서는 표시 기준점은 고정된 채 센서 모듈이 이동하는 예시를 설명한다. 도 12에서는 표시 기준점 및 센서 모듈이 둘 다 이동하는 예시를 설명한다.In operation 910, the electronic device (e.g., electronic device 101 of FIG. 1, processor 120 of FIG. 1) moves the sensor module (e.g., sensor module 176 of FIG. 1) to the visible area. An event for changing the size of 1060 may be detected (or confirmed or received). Only the sensor module can be moved and the display reference point can be fixed, or the display reference point can be moved together with the sensor module. 9 to 11 describe an example in which the sensor module moves while the display reference point is fixed. 12 describes an example in which both the display reference point and the sensor module move.
동작(920)에서 전자 장치는 그래픽 요소(예: 방향 그래픽 표현)의 위치가 고정된 채, 보여지는 영역(1060)의 변경된 크기를 획득할 수 있다. 전자 장치는 보여지는 영역(1060)에서 기본 길이 대비 확장된 길이 e를 결정할 수 있다. 보여지는 영역(1060)의 기본 크기에 대응하는 기본 영역에서는 사물(1090)의 방향을 안내하는 어플리케이션 화면이 출력될 수 있다. 기본 크기 대비 추가된 영역에는 다른 어플리케이션의 화면이 출력될 수 있다. 사물(1090)의 방향을 안내하는 어플리케이션 화면의 크기는 유지될 수 있다. 어플리케이션 화면 내 표시 기준점(1010)도 유지될 수 있다. 표시 기준점(1010)은 고정되나, 센서 모듈의 이동에 따라 화면 확장 후 획득된 제2 방향 정보는 제1 방향 정보와 달라질 수 있다.In operation 920, the electronic device may acquire the changed size of the visible area 1060 while the position of the graphic element (eg, directional graphic expression) is fixed. The electronic device may determine the extended length e compared to the basic length in the visible area 1060 . An application screen guiding the direction of the object 1090 may be displayed in the basic area corresponding to the basic size of the visible area 1060 . A screen of another application may be displayed on the area added compared to the basic size. The size of the application screen for guiding the direction of the object 1090 may be maintained. The display reference point 1010 in the application screen may also be maintained. The display reference point 1010 is fixed, but the second direction information obtained after screen expansion may be different from the first direction information according to the movement of the sensor module.
비교 실시예에서 센서 모듈의 변경된 제2 위치(1022)에서 획득된 제2 센싱값에 기초한 제2 방향 정보에 기초하여 결정된 지점(1031)은 제1 방향 정보에 기초하여 결정된 지점(1032)과 달라질 수 있다. 전술한 바와 같이, 어플리케이션 화면의 크기 및 표시 기준점(1010)이 변화하지 않았으므로, 사물(1090)을 나타내는 위치 그래픽 표현은 제1 방향 정보에 기초하여 결정된 지점(1032)에 표시되어야 한다. 전술한 오차는 센서 모듈의 이동량이 증가할수록 커질 수 있다. 표시 기준점(1010)에서 표시되는 방향 그래픽 표현도 전술한 바와 같이 어플리케이션 화면이 동일하므로 유지되어야 하나, 센서 모듈의 이동에 의해 달라진 제2 방향 정보로 인해 회전됨으로써 오차가 발생할 수 있다.In the comparative embodiment, the point 1031 determined based on the second direction information based on the second sensing value obtained at the changed second position 1022 of the sensor module is different from the point 1032 determined based on the first direction information. can As described above, since the size of the application screen and the display reference point 1010 have not changed, the location graphic representation representing the object 1090 must be displayed at the point 1032 determined based on the first direction information. The aforementioned error may increase as the movement amount of the sensor module increases. As described above, the directional graphic representation displayed at the display reference point 1010 should be maintained because the application screen is the same, but rotation due to the second direction information changed by the movement of the sensor module may cause an error.
동작(930)에서 전자 장치는 센서 모듈의 센싱을 중지할 수 있다. 예를 들어, 전자 장치는 표시 기준점(1010)이 고정된 채 센서 모듈이 제1 위치(1021)로부터 제2 위치(1022)로 이동하는 이벤트를 검출하는 경우에 응답하여, 센서 모듈의 센싱을 비활성화할 수 있다.In operation 930, the electronic device may stop sensing of the sensor module. For example, when the electronic device detects an event in which the sensor module moves from the first position 1021 to the second position 1022 while the display reference point 1010 is fixed, the electronic device deactivates the sensing of the sensor module. can do.
동작(940)에서 전자 장치는 전자 장치의 회전을 모니터링할 수 있다. 전자 장치는 6축 센서(예: 가속도 센서 및 자이로 센서)에 기초하여 디스플레이 평면(예: xy평면)에서 임계 각도 이상의 전자 장치의 회전이 발생하는지 여부를 모니터링할 수 있다. 전자 장치는 전자 장치의 임계 각도 이상의 회전이 발생하지 않은 경우, 센서 모듈의 센싱을 계속해서 중지할 수 있다. 전자 장치는 보여지는 영역(1060)의 크기 변경에 의해 적어도 하나의 센서 모듈이 이동하는 동안 적어도 하나의 센서 모듈의 센싱을 중지할 수 있다. 전자 장치는 센서 모듈의 제2 센싱값의 획득을 방지함으로써, 어플리케이션 화면에서 표시되는 그래픽 요소(예: 위치 그래픽 표현 및/또는 방향 그래픽 표현)를 유지할 수 있다. 예를 들어, 전자 장치는 제1 그래픽 요소의 위치가 고정된 채 보여지는 영역(1060)의 크기 변경에 의해 적어도 하나의 센서 모듈이 이동하는 것에 기초하여, 제1 그래픽 요소와 같은 제2 그래픽 표현을 출력할 수 있다.In operation 940, the electronic device may monitor rotation of the electronic device. The electronic device may monitor whether rotation of the electronic device at or above a threshold angle occurs in a display plane (eg, an xy plane) based on a 6-axis sensor (eg, an acceleration sensor and a gyro sensor). The electronic device may continue to stop sensing of the sensor module when the electronic device does not rotate beyond the critical angle. The electronic device may stop sensing of at least one sensor module while the at least one sensor module is moving by changing the size of the visible area 1060 . The electronic device may maintain a graphic element (eg, a position graphic expression and/or a direction graphic expression) displayed on the application screen by preventing the sensor module from acquiring the second sensed value. For example, the electronic device may display a second graphic element, such as the first graphic element, based on the movement of at least one sensor module by changing the size of the visible area 1060 while the position of the first graphic element is fixed. can output
동작(950)에서 전자 장치는 센서 모듈의 센싱값에 기초한 방향 정보를 보정할 수 있다. 전자 장치는 임계 각도 이상의 회전이 발생하는 경우(동작(940)-예), 센서 모듈의 센싱을 재개할 수 있다. 예를 들어, 전자 장치는 전술한 이벤트(예: 표시 기준점이 고정된 채 센서 모듈이 이동하는 이벤트)가 발생시 제1 방향 정보에 기초하여 산출된 보정치를 기록할 수 있다. 전자 장치는 적어도 하나의 센서 모듈의 센싱에 기초하여 획득된 제2 방향 정보에 보정치를 적용할 수 있다.In operation 950, the electronic device may correct direction information based on the sensed value of the sensor module. The electronic device may resume sensing of the sensor module when rotation of the threshold angle or more occurs (operation 940 - Yes). For example, the electronic device may record the correction value calculated based on the first direction information when the aforementioned event (eg, an event in which the sensor module moves while the display reference point is fixed) occurs. The electronic device may apply a correction value to second direction information obtained based on sensing of at least one sensor module.
예를 들어, 전자 장치는 이벤트가 발생시 보여지는 영역(1060)에서 이벤트에 의해 변경된 크기에 대응하는 예측 방향 정보를 산출할 수 있다. 예측 방향 정보는, 제1 방향 정보를 센싱한 시점을 기준으로, 제2 위치(1022)의 센서 모듈에서 센싱될 것으로 예측되는 예측 센싱값에 기초한 방향 정보일 수 있다. 예측 방향 정보는 제2 위치(1022)로부터 사물(1090)을 향하는 방향 및 일축(예: x축) 간에 형성되는 예측 각도 c를 포함할 수 있다. 전자 장치는 제1 방향 정보에 따른 각도 a (예: 최초 각도) 및 사물(1090)과 센서 모듈 간의 거리 D에 기초하여 일축 길이 dx 및 타축 길이 dy를 획득할 수 있다. 센서 모듈의 이동 길이 s는 확장 길이 e와 동일할 수 있다. 전자 장치는 c=tan-1(dy/(dx+s))에 기초하여 예측 각도 c를 산출할 수 있다. 전자 장치는 예측 방향 정보 및 제1 방향 정보에 기초하여 보정치를 산출할 수 있다. 전자 장치는 예측 각도 c 및 제1 방향 정보에 따른 각도 a 간의 차이를 보정치로 계산할 수 있다. 전자 장치는 계산된 보정치를 센서 모듈의 제2 센싱값에 기초하여 획득된 제2 방향 정보에 적용함으로써 제2 방향 정보를 보정할 수 있다. 예를 들어, 전자 장치는 제2 방향 정보로부터 계산된 보정치를 차감할 수 있다.For example, when an event occurs, the electronic device may calculate prediction direction information corresponding to a size changed by an event in the visible area 1060 . The predicted direction information may be direction information based on a predicted sensing value predicted to be sensed by the sensor module at the second position 1022 based on the point of time when the first direction information is sensed. The prediction direction information may include a prediction angle c formed between a direction from the second position 1022 toward the object 1090 and one axis (eg, the x-axis). The electronic device may obtain the length dx of one axis and the length dy of another axis based on the angle a (eg, the initial angle) according to the first direction information and the distance D between the object 1090 and the sensor module. The moving length s of the sensor module may be equal to the extended length e. The electronic device may calculate the predicted angle c based on c=tan -1 (d y /(d x +s)). The electronic device may calculate a correction value based on the predicted direction information and the first direction information. The electronic device may calculate a difference between the predicted angle c and the angle a according to the first direction information as a correction value. The electronic device may correct the second direction information by applying the calculated correction value to the second direction information acquired based on the second sensed value of the sensor module. For example, the electronic device may subtract the correction value calculated from the second direction information.
전자 장치는 보정된 제2 방향 정보를 이용하여 제2 그래픽 요소를 출력할 수 있다. 전자 장치는 표시 기준점(1010)으로부터 보정된 제2 방향 정보에 대응하는 선(line) 상의 지점(1032)에 위치 그래픽 표현을 출력할 수 있다.The electronic device may output the second graphic element using the corrected second direction information. The electronic device may output a location graphic representation at a point 1032 on a line corresponding to the corrected second direction information from the display reference point 1010 .
예를 들어, 도 11에 도시된 바와 같이, 전자 장치는 화면 확장에도 불구하고 고정된 표시 기준점(1110)을 기준으로 그래픽 요소를 출력할 수 있다. 예를 들어, 전자 장치는 제1 위치(1121)의 센싱 모듈에서 센싱된 제1 센싱값을 기초로 제1 방향 정보에 대응하는 지점(1131)에서 제1 그래픽 요소(예: 제1 위치 그래픽 표현)를 출력할 수 있다. 전자 장치는 보여지는 영역(1060)의 확장에 의해 제2 위치(1122, 1123)로 이동된 센서 모듈의 제2 센싱값에 기초한 제2 방향 정보를 보정할 수 있다. 전자 장치는 제2 방향 정보에 대응하는 지점(1132, 1134) 대신 보정된 제2 방향 정보에 대응하는 지점(1133, 1135)에서 제2 위치 그래픽 표현을 출력할 수 있다. 전자 장치의 자세에서 임계 각도 미만의 회전이 유지된 경우, 보정된 제2 방향 정보에 대응하는 지점(1133, 1135)은 제1 방향 정보에 대응하는 지점(1131)과 같을 수 있다. 또한, 전자 장치는, 보여지는 영역(1060)의 확장에 의해 이동된 센서 모듈의 제2 센싱값에 기초한 제2 방향 정보(예: 보정 전 제2 방향 정보)에 대응하는 방향 그래픽 표현(1142) 대신, 보정된 제2 방향 정보에 대응하는 방향 그래픽 표현(1143)을 출력할 수 있다. 보정된 제2 방향 정보에 대응하는 방향 그래픽 표현(1143)은 제1 방향 정보에 기초한 방향 그래픽 표현(1141)과 동일한 방향을 지시할 수도 있다. 따라서, 전자 장치는 오차가 발생한 제2 방향 정보에 보정치를 적용함으로써, 기존 표시 위치와 동일한 지점에 사물을 표시할 수 있다. For example, as shown in FIG. 11 , the electronic device may output a graphic element based on a fixed display reference point 1110 despite screen expansion. For example, the electronic device may display a first graphic element (eg, first position graphic expression) at a point 1131 corresponding to the first direction information based on the first sensing value sensed by the sensing module at the first position 1121. ) can be output. The electronic device may correct the second direction information based on the second sensed value of the sensor module moved to the second positions 1122 and 1123 by the expansion of the visible area 1060 . The electronic device may output the second position graphic representation at points 1133 and 1135 corresponding to the corrected second direction information instead of points 1132 and 1134 corresponding to the second direction information. When rotation less than the critical angle is maintained in the posture of the electronic device, points 1133 and 1135 corresponding to the corrected second direction information may be the same as points 1131 corresponding to the first direction information. In addition, the electronic device provides a direction graphic representation 1142 corresponding to second direction information (eg, second direction information before correction) based on the second sensed value of the sensor module moved by the expansion of the visible area 1060. Instead, a direction graphic representation 1143 corresponding to the corrected second direction information may be output. The direction graphic representation 1143 corresponding to the corrected second direction information may indicate the same direction as the direction graphic representation 1141 based on the first direction information. Accordingly, the electronic device may display the object at the same point as the existing display position by applying a correction value to the error-occurring second direction information.
도 12는 센서 모듈 및 표시 기준점이 둘 다 이동하는 예시를 설명한다. 전자 장치는 보여지는 영역의 크기 변경에 의해 제1 그래픽 요소(예: 표시 기준점에서 표시되는 방향 그래픽 표현) 및 적어도 하나의 센서 모듈(예: 도 1의 센서 모듈(176))이 이동하는 것에 기초하여, 보여지는 영역에서 이벤트에 의해 변경된 크기의 절반에 대응하는 예측 방향 정보를 산출할 수 있다. 예를 들어, 전자 장치는 센서 모듈의 이동 길이 s를 확장 길이 e의 절반으로 결정할 수 있다. 표시 기준점이 확장 길이 e대비 절반에 대응하는 길이만큼 이동하므로, 도 10에서 전술예시적인 실시예 대비 오차도 절반으로 감소하기 때문일 수 있다. 예측 방향 정보는 센서 모듈의 이동된 위치로부터 사물을 향하는 방향 및 일축(예: x축) 간에 형성되는 예측 각도 c를 포함할 수 있다. 전자 장치는 제1 방향 정보에 따른 각도 a (예: 최초 각도) 및 사물과 센서 모듈 간의 거리 D에 기초하여 일축 길이 dx 및 타축 길이 dy를 획득할 수 있다. 전자 장치는 c=tan-1(dy/(dx+s))에 기초하여 예측 각도 c를 산출할 수 있다. 전자 장치는 예측 방향 정보 및 제1 방향 정보에 기초하여 보정치를 산출할 수 있다. 전자 장치는 예측 각도 c 및 제1 방향 정보에 따른 각도 a 간의 차이를 보정치로 계산할 수 있다. 전자 장치는 제2 방향 정보에 보정치를 적용할 수 있다.12 illustrates an example in which both the sensor module and the display reference point move. The electronic device is based on the movement of the first graphic element (eg, direction graphic representation displayed at the display reference point) and at least one sensor module (eg, the sensor module 176 of FIG. 1) by changing the size of the visible area. Thus, prediction direction information corresponding to half of the size changed by the event in the visible area may be calculated. For example, the electronic device may determine the movement length s of the sensor module as half of the extension length e. This may be because the display reference point is moved by a length corresponding to half of the extension length e, so the error compared to the aforementioned exemplary embodiment in FIG. 10 is also reduced by half. The predicted direction information may include a predicted angle c formed between a direction from the moved position of the sensor module toward the object and one axis (eg, the x-axis). The electronic device may obtain the length dx of one axis and the length dy of another axis based on the angle a (eg, the initial angle) according to the first direction information and the distance D between the object and the sensor module. The electronic device may calculate the predicted angle c based on c=tan -1 (d y /(d x +s)). The electronic device may calculate a correction value based on the predicted direction information and the first direction information. The electronic device may calculate a difference between the predicted angle c and the angle a according to the first direction information as a correction value. The electronic device may apply a correction value to the second direction information.
전자 장치는 제1 위치(1221)의 센서 모듈에서 센싱된 제1 센싱값에 기초한 제1 방향 정보를 이용하여 제1 그래픽 요소(예: 제1 위치 그래픽 표현 및/또는 제2 위치 그래픽 표현)를 출력할 수 있다. 전자 장치는 제2 위치(1222)의 센서 모듈에서 센싱된 제2 센싱값에 기초한 제2 방향 정보를 전술한 보정치를 이용하여 보정할 수 있다. 보정이 없는 경우, 제2 방향 정보에 기초한 지점(1231) 및 방향(1241)은 오차를 포함할 수 있다. 전자 장치는 보정된 제2 방향 정보에 대응하는 지점(1232)에서 제2 위치 그래픽 표현의 출력 및/또는 보정된 제2 방향 정보에 대응하는 방향(1242)을 지시하는 방향 그래픽 표현의 출력 중 적어도 하나를 수행할 수 있다. 따라서, 전자 장치는 센서 모듈이 보여지는 영역의 크기 변경과 함께 이동하는 경우, 센서 모듈을 통하여 방향 정보를 재측정하면서 변경된 표시 기준점을 기준으로 재측정된 방향 정보를 보정하여 사물의 위치 및/또는 방향을 나타내는 그래픽 요소를 디스플레이 모듈에 표시할 수 있다.The electronic device generates a first graphic element (eg, a first position graphic expression and/or a second position graphic expression) using first direction information based on a first sensing value sensed by a sensor module at a first position 1221. can be printed out. The electronic device may correct the second direction information based on the second sensing value sensed by the sensor module at the second position 1222 using the correction value described above. If there is no correction, the point 1231 and the direction 1241 based on the second direction information may include an error. The electronic device outputs a second position graphic representation at a point 1232 corresponding to the corrected second direction information and/or outputs a direction graphic representation indicating a direction 1242 corresponding to the corrected second direction information. can do one Therefore, when the sensor module moves along with the size change of the visible area, the electronic device measures the direction information through the sensor module and corrects the re-measured direction information based on the changed display reference point to determine the position of the object and/or the electronic device. A graphic element representing the direction may be displayed on the display module.
아래에서는 추가적으로 증강현실 이미지에서 사물을 표시하는 중 카메라 모듈이 이동하는 경우, 카메라 모듈의 변위를 사물의 위치 표시에 반영하는 예시를 설명한다.Below, when the camera module moves while displaying an object in an augmented reality image, an example of reflecting the displacement of the camera module to display the location of an object will be described.
도 13은 예시적인 실시예에 따른 전자 장치에서 보여지는 영역의 크기 변경에 따른 카메라 이미지의 시야각(field of view, FOV)의 조정을 설명하는 도면이다.13 is a diagram illustrating adjustment of a field of view (FOV) of a camera image according to a change in size of a visible area in an electronic device according to an exemplary embodiment.
예시적인 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))의 적어도 하나의 센서 모듈(예: 도 1의 센서 모듈(176))은 카메라 모듈(예: 도 1의 카메라 모듈(180))을 포함할 수 있다. 도 13에 도시된 바와 같이 전자 장치의 보여지는 화면의 크기 변경시, 카메라 모듈은 고정된 위치(1320)에서 유지되거나, 제1 위치(1321)로부터 제2 위치(1322)로 이동될 수 있다.At least one sensor module (eg, the sensor module 176 of FIG. 1 ) of the electronic device (eg, the electronic device 101 of FIG. 1 ) according to an exemplary embodiment is a camera module (eg, the camera module of FIG. 1 ( 180)). As shown in FIG. 13 , when the size of the displayed screen of the electronic device is changed, the camera module may be maintained at a fixed position 1320 or may be moved from a first position 1321 to a second position 1322 .
예를 들어, 전자 장치는 카메라 모듈의 이동 없이 제1 그래픽 요소가 이동하는 경우, 카메라 모듈에 기초하여 획득된 이미지에서 타겟팅된 사물을 중심으로 시야각(field of view; FOV)을 조정함으로써 크롭된 이미지를 출력할 수 있다. 다른 예를 들어, 전자 장치는 카메라 모듈이 이동하는 경우, 카메라 모듈에 기초하여 획득된 카메라 이미지에서 타겟팅된 사물 및 카메라 모듈의 이동 거리에 기초하여 결정된 시야각(field of view; FOV)으로 크롭된 이미지를 출력할 수 있다. 전자 장치는 타겟팅된 사물이 시야각의 중심에 타겟팅되도록 카메라 모듈의 이동 방향과 반대 방향으로 시프팅된 시야각으로 카메라 이미지를 크롭할 수 있다. 사물과 전자 장치 간의 거리 및 카메라 모듈의 이동 거리에 따라 픽셀 시프트 량(pixel shift amount)이 달라질 수 있다. 전자 장치는 타겟팅된 사물까지의 거리 및/또는 카메라 모듈의 이동 거리에 기초하여 픽셀 시프트 량을 결정하고, 결정된 픽셀 시프트 량만큼 시프트된 시야각으로 카메라 이미지를 크롭할 수 있다. 전자 장치는 카메라 이미지 내 포함된 사물 인식(예: 인공지능 분석에 기초한 인식)을 최소화 또는 감소시키면서 사물을 트랙킹할 수 있어, 연산량이 감소될 수 있다.For example, when the first graphic element moves without moving the camera module, the electronic device adjusts a field of view (FOV) centered on a target object in an image obtained based on the camera module to crop the image. can output For another example, when the camera module moves, the electronic device crops an image with a field of view (FOV) determined based on a target object and a moving distance of the camera module in the camera image acquired based on the camera module. can output The electronic device may crop the camera image to the viewing angle shifted in the opposite direction to the moving direction of the camera module so that the targeted object is targeted at the center of the viewing angle. A pixel shift amount may vary according to the distance between the object and the electronic device and the moving distance of the camera module. The electronic device may determine a pixel shift amount based on the distance to the targeted object and/or the moving distance of the camera module, and crop the camera image at a viewing angle shifted by the determined pixel shift amount. The electronic device may track an object while minimizing or reducing object recognition included in the camera image (eg, recognition based on artificial intelligence analysis), and thus the amount of computation may be reduced.
전자 장치는 타겟팅된 사물에 대한 그래픽 요소(예: 위치 그래픽 표현 및/또는 방향 그래픽 표현)를 도 1 내지 도 12에서 전술한 바에 따라 보정된 방향 정보를 이용하여 출력할 수 있다. 전자 장치는 크롭된 이미지에 그래픽 요소를 오버레이함으로써 증강현실 이미지를 생성할 수 있다.The electronic device may output a graphic element (eg, a graphic representation of a position and/or a graphic representation of a direction) of a targeted object using direction information corrected as described above with reference to FIGS. 1 to 12 . The electronic device may generate an augmented reality image by overlaying a graphic element on the cropped image.
전자 장치는 마진 영역 없이 증강현실 이미지를 출력할 수 있다. 마진 영역이 없는 경우 보여지는 영역의 크기 변경에 따라 표시 기준점이 이동되며, 증강현실 이미지의 크기도 달라질 수 있다. 전자 장치는 폐쇄 상태(1371)에서는 원본 카메라 이미지(1373) 중 폐쇄 상태(1371)의 화면 비율에 대응하는 제1 시야각(1361)에 대응하는 부분 이미지를 크롭할 수 있다. 전자 장치는 개방 상태(1372)에서는 원본 카메라 이미지(1373) 중 개방 상태(1372)의 화면 비율에 대응하는 제2 시야각(1362)에 대응하는 부분 이미지를 크롭할 수 있다. 제2 시야각(1362)은 제1 시야각(1361)보다 가로로 넓고 세로로 좁은 범위를 가질 수 있다. 전자 장치는 카메라 모듈의 이동에 기초하여, 원본 카메라 이미지(1373)에서 크롭되는 영역을 카메라 모듈의 이동 방향에 반대되는 방향으로 시프트할 수 있다. 카메라 모듈의 이동 방향은 보여지는 영역의 확장 및 축소 방향과 평행할 수 있다. The electronic device may output an augmented reality image without a margin area. When there is no margin area, the display reference point is moved according to the size change of the visible area, and the size of the augmented reality image may also change. In the closed state 1371, the electronic device may crop a partial image corresponding to the first viewing angle 1361 corresponding to the aspect ratio of the closed state 1371 among the original camera images 1373. In the open state 1372, the electronic device may crop a partial image corresponding to the second viewing angle 1362 corresponding to the aspect ratio of the open state 1372 among the original camera images 1373. The second viewing angle 1362 may have a range that is wider horizontally and narrower vertically than the first viewing angle 1361 . Based on the movement of the camera module, the electronic device may shift the cropped region of the original camera image 1373 in a direction opposite to the movement direction of the camera module. The direction of movement of the camera module may be parallel to the direction of expansion and contraction of the viewing area.
다른 예를 들어, 전자 장치는 보여지는 화면 영역의 크기 변경에도 불구하고, 같은 크기의 증강현실 이미지를 출력할 수도 있다. 이 경우, 원본 카메라 이미지로부터 크롭되는 이미지 크기는 유지될 수 있다. 전자 장치는 폐쇄 상태(1381) 및 개방 상태(1382)에서 동일한 크기의 증강현실 이미지를 출력할 수 있다. 보여지는 영역의 확장시 카메라 모듈이 이동하는 경우, 전자 장치는 원본 카메라 이미지로부터 크롭되는 영역을 제1 시야각 영역(1391)으로부터 제2 시야각 영역(1392)으로 시프트할 수 있다. 제2 시야각 영역(1392)은 제1 시야각 영역(1391) 대비 카메라 모듈의 이동 방향과 반대되는 방향(1393)으로 이동된 영역일 수 있다.For another example, the electronic device may output an augmented reality image of the same size despite a change in the size of the displayed screen area. In this case, the image size cropped from the original camera image may be maintained. The electronic device may output augmented reality images of the same size in the closed state 1381 and the open state 1382 . When the camera module moves while expanding the visible area, the electronic device may shift the cropped area from the original camera image from the first viewing angle area 1391 to the second viewing angle area 1392 . The second viewing angle area 1392 may be an area moved in a direction 1393 opposite to the moving direction of the camera module relative to the first viewing angle area 1391 .
전자 장치는 보여지는 화면 영역의 크기 변경과 무관하게, 사용자에게 어플리케이션 화면의 중심 영역에서 타겟팅된 사물 및 그래픽 요소를 제공할 수 있다.The electronic device may provide a target object and graphic element in the central area of the application screen to the user regardless of the size change of the displayed screen area.
도 14 및 도 15는 예시적인 실시예에 따른 전자 장치에서 사용자 입력에 기초하여 보정치를 획득하기 위한 캘리브레이션 동작을 설명하는 도면이다.14 and 15 are diagrams illustrating a calibration operation for obtaining a correction value based on a user input in an electronic device according to exemplary embodiments.
동작(1410)에서 전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120))는 보여지는 영역의 크기 변경을 위한 이벤트를 검출(또는, 확인, 수신)할 수 있다.In operation 1410, an electronic device (eg, the electronic device 101 of FIG. 1 or the processor 120 of FIG. 1 ) may detect (or confirm or receive) an event for changing the size of a visible area.
동작(1420)에서 전자 장치는 방향 정보의 캘리브레이션을 개시할 수 있다. 예를 들어, 전자 장치는 사용자 입력에 기초하여 적어도 하나의 센싱 모듈의 방향 정보의 캘리브레이션을 수행할 수 있다. 전자 장치는 보여지는 영역의 크기 변경 후 출력된 그래픽 요소와 실제 사물(1590)에 대한 방향 간에 오차가 있는 경우, 캘리브레이션 동작으로 사용자 입력을 통해 진입할 수 있다. 사용자 입력은 캘리브레이션의 개시를 위한 객체(1501)를 선택하는 입력을 나타낼 수 있다. 전자 장치는 보여지는 영역의 크기 변경을 위한 이벤트를 검출하는 경우, 캘리브레이션의 개시를 위한 객체(1501)를 출력할 수 있다.In operation 1420, the electronic device may initiate calibration of direction information. For example, the electronic device may calibrate direction information of at least one sensing module based on a user input. When there is an error between the graphic element output after changing the size of the visible area and the direction of the real object 1590, the electronic device may perform a calibration operation through a user input. The user input may indicate an input for selecting an object 1501 for initiation of calibration. When the electronic device detects an event for changing the size of a visible area, it may output an object 1501 for starting calibration.
동작(1430)에서 전자 장치는 캘리브레이션 동안 개시 시점의 가속도 정보 및/또는 자이로 정보를 저장할 수 있다. 다른 예를 들어, 전자 장치는 캘리브레이션 개시에서 획득된 센서 정보(예: 가속도 정보 및 자이로 정보)에 기초하여 캘리브레이션 전 방향 정보를 산출 및 저장할 수 있다.In operation 1430, the electronic device may store acceleration information and/or gyro information at a start point during calibration. For another example, the electronic device may calculate and store calibration omnidirectional information based on sensor information (eg, acceleration information and gyro information) acquired at the start of calibration.
동작(1440)에서 사용자의 조작에 의해 전자 장치가 회전될 수 있다. 전자 장치는 캘리브레이션에서 캘리브레이션 동안 전자 장치의 가속도 정보 및 자이로 정보를 모니터링할 수 있다. 예시적으로 전자 장치는 표시 기준점에서 캘리브레이션을 위한 방향 그래픽 표현(1510)을 출력할 수 있다. 전술한 전자 장치의 자세 회전 동안, 전자 장치는 보여지는 영역 내에서 고정된 방향(예: 전자 장치의 y축을 따라 정면을 향하는 방향)으로 방향 그래픽 표현(1510)을 출력할 수 있다. 전자 장치는 방향 그래픽 표현(1510)의 방향이 사물(1590)에 매칭할 때까지 사용자에 의해 회전될 수 있다.In operation 1440, the electronic device may be rotated by a user's manipulation. In calibration, the electronic device may monitor acceleration information and gyro information of the electronic device during calibration. For example, the electronic device may output a directional graphic representation 1510 for calibration at the display reference point. During the posture rotation of the electronic device described above, the electronic device may output a directional graphic representation 1510 in a fixed direction (eg, a direction facing the front along the y-axis of the electronic device) within the visible region. The electronic device can be rotated by the user until the orientation of the directional graphical representation 1510 matches the object 1590 .
참고로, 전자 장치는 방향 정보를 보정 중이라는 표시(1530)를 출력할 수 있다. 도 15에서는 캘리브레이션에 진입한 동안 표시(1530)가 출력되는 예시를 설명하였으나, 이로 한정하는 것은 아니다. 예시적으로 도 1 내지 도 14에서 전술한 바와 같이 보여지는 영역의 크기 변경이 진행되는 동안 방향 정보를 보정 중이라는 표시(1530)가 출력되고, 방향 정보의 자동 보정이 수행될 수도 있다.For reference, the electronic device may output a display 1530 indicating that direction information is being corrected. In FIG. 15, an example in which the display 1530 is output while entering calibration has been described, but is not limited thereto. Illustratively, as described above with reference to FIGS. 1 to 14 , while the size of the visible area is being changed, an indication 1530 indicating that the direction information is being corrected is output, and the direction information may be automatically corrected.
동작(1450)에서 전자 장치는 캘리브레이션 종료시 가속도 정보 및/또는 자이로 정보를 저장할 수 있다. 전자 장치는, 조정된 방향 그래픽 표현(1510)이 실제 사물(1590)을 지향한다고 판단한 사용자의 종료 입력에 응답하여, 캘리브레이션을 종료할 수 있다. 종료 입력은 캘리브레이션의 종료를 위한 객체(1520)를 선택하는 입력을 나타낼 수 있다. 전자 장치는 캘리브레이션 종료에서 획득된 센서 정보에 기초하여 캘리브레이션 후 방향 정보(예: 가속도 정보 및 자이로 정보)를 산출 및 저장할 수 있다.In operation 1450, the electronic device may store acceleration information and/or gyro information upon completion of calibration. The electronic device may end the calibration in response to the user's end input upon determining that the adjusted directional graphic representation 1510 is oriented toward the real object 1590 . The end input may indicate an input for selecting the object 1520 for end of calibration. The electronic device may calculate and store direction information (eg, acceleration information and gyro information) after calibration based on sensor information acquired at the end of calibration.
동작(1460)에서 전자 장치는 캘리브레이션 개시 및 종료에서 저장된 가속도 정보 및/또는 자이로 정보에 기초하여 보정치를 결정할 수 있다. 예를 들어, 전자 장치는 캘리브레이션의 종료시 획득된 가속도 정보 및 자이로 정보에 기초하여 방향 정보에 대한 보정치를 결정할 수 있다. 전자 장치는 캘리브레이션 개시에서 획득된 센서 정보(예: 가속도 정보 및 자이로 정보)에 기초하여 캘리브레이션 전 방향 정보를 결정하고, 캘리브레이션 종료에서 획득된 센서 정보에 기초하여 캘리브레이션 후 방향 정보(예: 가속도 정보 및 자이로 정보)를 결정할 수 있다. 전자 장치는 캘리브레이션 후 방향 정보 및 캘리브레이션 전 방향 정보 간의 차이를 보정치로 산출할 수 있다. 캘리브레이션 전후의 방향 정보는 전술한 가속도 정보, 자이로 정보, 및 지자계 값 중 적어도 하나에 기초하여 결정될 수 있다. 여기서 사용된 "~에 기초하여"는 적어도 기초하여를 커버한다.In operation 1460, the electronic device may determine a correction value based on acceleration information and/or gyro information stored at the start and end of calibration. For example, the electronic device may determine a correction value for direction information based on acceleration information and gyro information acquired at the end of calibration. The electronic device determines directional information before calibration based on sensor information (eg, acceleration information and gyro information) acquired at the start of calibration, and directional information (eg, acceleration information and gyro information) after calibration based on sensor information obtained at the end of calibration. gyro information) can be determined. The electronic device may calculate a difference between direction information after calibration and direction information before calibration as a correction value. Direction information before and after calibration may be determined based on at least one of the aforementioned acceleration information, gyro information, and earth magnetic field value. As used herein, “based on” covers at least based on.
전자 장치는 산출된 보정치를 센서 모듈의 제2 센싱값에 기초한 제2 방향 정보에 적용함으로써 제2 방향 정보를 보정할 수 있다. (예: 도 14의 동작(1470) 참조)The electronic device may correct the second direction information by applying the calculated correction value to the second direction information based on the second sensed value of the sensor module. (eg see operation 1470 of FIG. 14)
여기서 각 실시예는 여기 설명된 다른 실시예(들)과 조합되어 사용될 수 있다.Each embodiment herein may be used in combination with other embodiment(s) described herein.
예시적인 실시예에 따른 전자 장치는 보여지는 영역의 크기 변경, 센서 모듈의 이동, 및 그래픽 요소의 이동으로 인한 오차를 보정함으로써 올바른 사물 지향 표시를 제공할 수 있다.An electronic device according to an exemplary embodiment may provide correct object-oriented display by correcting errors caused by a change in size of a visible area, movement of a sensor module, and movement of a graphic element.
본 개시가 다양한 실시예를 참조하여 예시되고 설명되었지만, 다양한 실시예는 제한이 아니라 예시적인 것으로 의도된다는 것이 이해될 것이다. 첨부된 청구범위 및 그 균등물을 포함하는 본 개시의 진정한 사상 및 전체 범위를 벗어나지 않고 형태 및 세부사항의 다양한 변경이 이루어질 수 있다는 것이 통상의 기술자에 의해 추가로 이해될 것이다. 여기에 설명된 임의의 실시예(들)는 여기에 설명된 임의의 다른 실시예(들)와 함께 사용될 수 있음이 또한 이해될 것이다.Although the present disclosure has been illustrated and described with reference to various embodiments, it will be understood that the various embodiments are intended to be illustrative rather than limiting. It will further be understood by those skilled in the art that various changes in form and detail may be made without departing from the true spirit and full scope of the present disclosure, including the appended claims and equivalents thereto. It will also be appreciated that any embodiment(s) described herein may be used with any other embodiment(s) described herein.

Claims (15)

  1. 전자 장치에 있어서,In electronic devices,
    방향 정보를 산출하기 위한, 적어도 하나의 센서를 포함하는, 적어도 하나의 센서 모듈;at least one sensor module, including at least one sensor, for calculating direction information;
    일측에서 보여지는 영역(viewable region)의 크기 변경이 가능한, 디스플레이를 포함하는, 디스플레이 모듈;A display module including a display capable of changing the size of a viewable region from one side;
    상기 보여지는 영역의 크기를 산출하기 위한, 회로를 포함하는, 디스플레이 길이 검출 모듈;a display length detection module, comprising circuitry, for calculating the size of the viewed area;
    컴퓨터로 실행 가능한 명령어들이 저장된 메모리; 및a memory in which instructions executable by a computer are stored; and
    상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 적어도 하나의 프로세서at least one processor to access the memory and execute the instructions
    를 포함하고,including,
    상기 적어도 하나의 프로세서는,The at least one processor,
    상기 적어도 하나의 센서 모듈로부터 수신한 제1 센싱값에 기초하여 산출된 제1 방향 정보에 대응하는 제1 그래픽 요소를 상기 디스플레이 모듈의 상기 디스플레이를 통해 출력하도록 제어하고,Control to output a first graphic element corresponding to first direction information calculated based on a first sensing value received from the at least one sensor module through the display of the display module;
    상기 보여지는 영역의 크기 변경을 위한 이벤트의 발생에 기초하여, 상기 출력 중인 적어도 제1 그래픽 요소 및 상기 적어도 하나의 센서 모듈 간의 상대적 위치의 변화를 모니터링하며,Based on the occurrence of an event for changing the size of the visible area, monitoring a change in relative position between the at least one first graphic element being output and the at least one sensor module,
    상기 상대적 위치가 변화한 것으로 판단한 것에 기초하여, 상기 적어도 하나의 센서 모듈로부터 수신한 제2 센싱값에 기초하여 산출된 제2 방향 정보를 상기 상대적 위치의 변화에 기초하여 보정하고,Based on the determination that the relative position has changed, correcting second direction information calculated based on the second sensing value received from the at least one sensor module based on the change in the relative position;
    상기 보정된 제2 방향 정보에 대응하는 제2 그래픽 요소를 상기 디스플레이 모듈의 상기 디스플레이를 통해 출력하도록 구성되는,configured to output a second graphic element corresponding to the corrected second direction information through the display of the display module;
    전자 장치.electronic device.
  2. 제1항에 있어서,According to claim 1,
    상기 방향 정보는,The direction information is
    진북 방향을 지시하는 방위각 및 상기 적어도 하나의 센서 모듈을 통해 인식된 사물을 지시하는 방향 중 적어도 하나를 포함하는,Including at least one of an azimuth indicating a true north direction and a direction indicating an object recognized through the at least one sensor module,
    전자 장치.electronic device.
  3. 제1항에 있어서,According to claim 1,
    상기 적어도 하나의 센서 모듈은,The at least one sensor module,
    지자계 센서, 외부 기기와 통신을 수립하는 통신 회로를 포함하는 통신 모듈, 회로를 포함하는 측위 모듈, 사물과의 거리를 검출하기 위한 거리 센서, 및 사물을 검출하기 위한 비전 센서 중 적어도 하나를 포함하는,At least one of a geomagnetic sensor, a communication module including a communication circuit for establishing communication with an external device, a positioning module including a circuit, a distance sensor for detecting a distance to an object, and a vision sensor for detecting an object doing,
    전자 장치.electronic device.
  4. 제1항에 있어서,According to claim 1,
    상기 프로세서는,the processor,
    상기 적어도 하나의 센서 모듈이 고정된 채 상기 보여지는 영역이 증가하는 것에 기초하여, 상기 제1 그래픽 요소에 제1 회전 방향으로 회전 및 제1 이동 방향으로 이동 중 적어도 하나를 적어도 적용함으로써 상기 제2 그래픽 요소를 생성하고,By applying at least one of rotation in a first rotation direction and movement in a first movement direction to the first graphic element based on an increase in the visible area while the at least one sensor module is fixed, the second graphic element create graphic elements;
    상기 적어도 하나의 센서 모듈이 고정된 채 상기 보여지는 영역이 감소하는 것에 기초하여, 상기 제1 그래픽 요소를 상기 제1 회전 방향과 다른 제2 회전 방향으로 회전 및 상기 제1 이동 방향과 다른 제2 이동 방향으로 이동 중 적어도 하나를 적어도 적용함으로써 상기 제2 그래픽 요소를 생성하도록 더 구성된,Rotate the first graphic element in a second rotation direction different from the first rotation direction and rotate the first graphic element in a second rotation direction different from the first rotation direction based on the decrease in the visible area while the at least one sensor module is fixed. further configured to generate the second graphical element by at least applying at least one of the movement in the direction of movement;
    전자 장치.electronic device.
  5. 제1항에 있어서,According to claim 1,
    상기 프로세서는,the processor,
    상기 보여지는 영역의 크기 변경량(size change amount)에 대응하는 각도만큼 회전 및 상기 크기 변경량에 대응하는 변위만큼 이동 중 적어도 하나를 상기 제1 그래픽 요소에 적어도 적용함으로써 생성된 상기 제2 그래픽 요소를 출력하게 제어하도록 더 구성된,The second graphic element generated by at least applying at least one of a rotation by an angle corresponding to a size change amount of the visible area and a movement by a displacement corresponding to the size change amount to the first graphic element. Further configured to control the output of
    전자 장치.electronic device.
  6. 제4항에 있어서,According to claim 4,
    상기 프로세서는,the processor,
    상기 보여지는 영역의 크기 변경에 기초하여 상기 제1 그래픽 요소의 이동 길이를 산출하고,Calculating a movement length of the first graphic element based on the size change of the visible area;
    상기 제1 그래픽 요소의 이동 길이, 상기 제1 그래픽 요소에 대응하는 물리적 위치(physical location)까지의 거리, 및 상기 제1 방향 정보에 기초하여 상기 제2 방향 정보를 보정하도록 더 구성된,Further configured to correct the second direction information based on a movement length of the first graphic element, a distance to a physical location corresponding to the first graphic element, and the first direction information,
    전자 장치.electronic device.
  7. 제4항에 있어서,According to claim 4,
    상기 프로세서는,the processor,
    상기 적어도 하나의 센서 모듈의 복수의 센싱값들에 대해 상기 제1 그래픽 요소의 이동 길이들에 대응하는 보정치들을 포함하는 캘리브레이션 정보에 기초하여 상기 제2 방향 정보를 보정하도록 더 구성된,Further configured to correct the second direction information based on calibration information including correction values corresponding to movement lengths of the first graphic element for a plurality of sensing values of the at least one sensor module,
    전자 장치.electronic device.
  8. 제1항에 있어서,According to claim 1,
    상기 프로세서는,the processor,
    상기 제1 그래픽 요소의 위치가 고정된 채 상기 보여지는 영역의 크기 변경에 의해 상기 적어도 하나의 센서 모듈이 이동하는 것에 기초하여, 상기 제1 그래픽 요소와 같은 상기 제2 그래픽 표현을 출력하게 제어하도록 더 구성된,Based on the movement of the at least one sensor module by changing the size of the visible area while the position of the first graphic element is fixed, the second graphic expression identical to the first graphic element is controlled to be output. more composed,
    전자 장치.electronic device.
  9. 제8항에 있어서,According to claim 8,
    상기 프로세서는,the processor,
    상기 보여지는 영역의 크기 변경에 의해 상기 적어도 하나의 센서 모듈이 이동하는 동안 상기 적어도 하나의 센서 모듈의 센싱을 중지하도록 더 구성된,Further configured to stop sensing of the at least one sensor module while the at least one sensor module moves by changing the size of the visible area,
    전자 장치.electronic device.
  10. 제8항에 있어서,According to claim 8,
    상기 프로세서는,the processor,
    상기 이벤트가 발생시 상기 제1 방향 정보에 기초하여 산출된 보정치를 기록하고,Recording a correction value calculated based on the first direction information when the event occurs,
    상기 적어도 하나의 센서 모듈의 센싱에 기초하여 획득된 상기 제2 방향 정보에 상기 보정치를 적용하도록 더 구성된,Further configured to apply the correction value to the second direction information obtained based on sensing of the at least one sensor module,
    전자 장치.electronic device.
  11. 제10항에 있어서,According to claim 10,
    상기 프로세서는,the processor,
    상기 이벤트가 발생시 상기 보여지는 영역에서 상기 이벤트에 의해 변경된 크기에 대응하는 예측 방향 정보를 산출하고,When the event occurs, calculating prediction direction information corresponding to a size changed by the event in the visible area;
    상기 예측 방향 정보 및 상기 제1 방향 정보에 기초하여 상기 보정치를 산출하도록 더 구성된,Further configured to calculate the correction value based on the predicted direction information and the first direction information,
    전자 장치.electronic device.
  12. 제10항에 있어서,According to claim 10,
    상기 프로세서는,the processor,
    상기 보여지는 영역의 크기 변경에 의해 상기 제1 그래픽 요소 및 상기 적어도 하나의 센서 모듈이 이동하는 것에 기초하여, 상기 보여지는 영역에서 상기 이벤트에 의해 변경된 크기의 절반에 대응하는 예측 방향 정보를 산출하고,Based on the movement of the first graphic element and the at least one sensor module by the size change of the visible region, predictive direction information corresponding to half of the size changed by the event in the visible region is calculated; ,
    상기 예측 방향 정보 및 상기 제1 방향 정보에 기초하여 보정치를 산출하며,Calculating a correction value based on the predicted direction information and the first direction information;
    상기 제2 방향 정보에 상기 보정치를 적용하도록 더 구성된,Further configured to apply the correction value to the second direction information,
    전자 장치.electronic device.
  13. 제1항에 있어서,According to claim 1,
    상기 프로세서는,the processor,
    상기 상대적 위치가 유지되는 것에 기초하여, 상기 제2 센싱값에 기초하여 산출된 제2 방향 정보를 이용하여 제2 그래픽 요소를 상기 디스플레이 모듈의 상기 디스플레이에 출력하게 제어하도록 더 구성되는,Based on the relative position being maintained, further configured to control a second graphic element to be output to the display of the display module using second direction information calculated based on the second sensing value,
    전자 장치.electronic device.
  14. 제1항에 있어서,According to claim 1,
    상기 적어도 하나의 센서 모듈은 카메라를 포함하는 카메라 모듈을 포함하고,The at least one sensor module includes a camera module including a camera,
    상기 프로세서는,the processor,
    상기 카메라 모듈의 이동 없이 상기 제1 그래픽 요소가 이동하는 경우, 상기 카메라 모듈에 기초하여 획득된 이미지에서 타겟팅된 사물을 중심으로 시야각(field of view; FOV)을 조정함으로써 크롭된 이미지를 출력하도록 더 구성된,When the first graphic element moves without moving the camera module, a cropped image is output by adjusting a field of view (FOV) centered on a target object in an image obtained based on the camera module. composed,
    전자 장치.electronic device.
  15. 프로세서를 포함하는 전자 장치로 구현되는 방법에 있어서,In the method implemented as an electronic device including a processor,
    센서를 포함하는 적어도 하나의 센서 모듈로부터 수신한 제1 센싱값에 기초하여 산출된 제1 방향 정보에 대응하는 제1 그래픽 요소를 디스플레이에 출력하는 동작;outputting, on a display, a first graphic element corresponding to first direction information calculated based on a first sensing value received from at least one sensor module including a sensor;
    상기 디스플레이의 보여지는 영역의 크기 변경을 위한 이벤트의 발생에 응답하여, 상기 출력 중인 제1 그래픽 요소 및 상기 적어도 하나의 센서 모듈 간의 상대적 위치의 변화를 모니터링하는 동작;monitoring a change in relative position between the outputting first graphic element and the at least one sensor module in response to an event for changing the size of the visible area of the display;
    상기 상대적 위치가 변화한 것으로 판단되면, 상기 적어도 하나의 센서 모듈로부터 수신한 제2 센싱값에 기초하여 산출된 제2 방향 정보를 상기 상대적 위치의 변화에 기초하여 보정하는 동작; 및correcting second direction information calculated based on the second sensing value received from the at least one sensor module based on the change in the relative position when it is determined that the relative position has changed; and
    상기 보정된 제2 방향 정보에 대응하는 제2 그래픽 요소를 상기 디스플레이에 출력하는 동작Outputting a second graphic element corresponding to the corrected second direction information to the display
    을 포함하는 방법.How to include.
PCT/KR2022/018584 2022-01-25 2022-11-23 Electronic device having flexible display WO2023146091A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP22924344.9A EP4361783A1 (en) 2022-01-25 2022-11-23 Electronic device having flexible display
US18/109,468 US20230260437A1 (en) 2022-01-25 2023-02-14 Electronic device with flexible display

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220010753 2022-01-25
KR10-2022-0010753 2022-01-25
KR10-2022-0021094 2022-02-17
KR1020220021094A KR20230114658A (en) 2022-01-25 2022-02-17 Electronic device with flexible display

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/109,468 Continuation US20230260437A1 (en) 2022-01-25 2023-02-14 Electronic device with flexible display

Publications (1)

Publication Number Publication Date
WO2023146091A1 true WO2023146091A1 (en) 2023-08-03

Family

ID=87472249

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/018584 WO2023146091A1 (en) 2022-01-25 2022-11-23 Electronic device having flexible display

Country Status (3)

Country Link
US (1) US20230260437A1 (en)
EP (1) EP4361783A1 (en)
WO (1) WO2023146091A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170089664A (en) * 2016-01-27 2017-08-04 엘지전자 주식회사 Rollable mobile device and method for controlling the same
KR102065411B1 (en) * 2013-09-04 2020-01-13 엘지전자 주식회사 Mobile terminal and controlling method thereof
KR102070244B1 (en) * 2012-08-01 2020-01-28 삼성전자주식회사 Flexible display apparatus and controlling method thereof
KR20210081576A (en) * 2019-12-24 2021-07-02 삼성전자주식회사 Method for indoor positioning and the electronic device
KR20220003863A (en) * 2020-07-02 2022-01-11 삼성전자주식회사 Apparatus and method for calibrating magnetic data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102070244B1 (en) * 2012-08-01 2020-01-28 삼성전자주식회사 Flexible display apparatus and controlling method thereof
KR102065411B1 (en) * 2013-09-04 2020-01-13 엘지전자 주식회사 Mobile terminal and controlling method thereof
KR20170089664A (en) * 2016-01-27 2017-08-04 엘지전자 주식회사 Rollable mobile device and method for controlling the same
KR20210081576A (en) * 2019-12-24 2021-07-02 삼성전자주식회사 Method for indoor positioning and the electronic device
KR20220003863A (en) * 2020-07-02 2022-01-11 삼성전자주식회사 Apparatus and method for calibrating magnetic data

Also Published As

Publication number Publication date
US20230260437A1 (en) 2023-08-17
EP4361783A1 (en) 2024-05-01

Similar Documents

Publication Publication Date Title
WO2022086248A1 (en) Electronic device and method supporting zoom function
WO2022010156A1 (en) Method for calibrating geomagnetic sensor of electronic device and electronic device thereof
WO2022005231A1 (en) Electronic device and method for correcting geomagnetic data
WO2023146091A1 (en) Electronic device having flexible display
WO2023043083A1 (en) Chamber for measuring antenna performance, system comprising same, and method for operating same
WO2022177299A1 (en) Method for controlling call function and electronic device supporting same
WO2022103021A1 (en) Electronic device including flexible display, and control method therefor
WO2022045579A1 (en) Electronic device for correcting position of external device and operation method thereof
WO2022197036A1 (en) Measurement method using ar, and electronic device
KR20230114658A (en) Electronic device with flexible display
WO2022119366A1 (en) Electronic device comprising antenna
WO2023249231A1 (en) Electronic device comprising camera, and operating method therefor
WO2023080387A1 (en) Electronic device comprising structure for sensing amount of rotation of motor
WO2022177248A1 (en) Positioning method using wireless communication, and electronic device for supporting same
WO2023146092A1 (en) Image-based inertial sensor correction method and electronic device for performing same
WO2023018014A1 (en) Method for tracking position of target device, and electronic device and position tracking server for performing the method
WO2022145926A1 (en) Electronic device and method for correcting sensor data of electronic device
WO2023068549A1 (en) Electronic device using external device, and operating method therefor
WO2023075323A1 (en) Electronic device including rotation module and operation method thereof
WO2024101749A1 (en) Electronic device for providing representative image of external electronic device, method for operating same, and storage medium
WO2022114841A1 (en) Electronic device comprising plurality of antennas, and operation method therefor
WO2024019285A1 (en) Method and device for displaying screen of application executed by using subscriber identification module information
WO2022098212A1 (en) Electronic device having flexible display
WO2022203364A1 (en) Electronic device comprising housing comprising fiducial mark and method of manufacturing same
WO2024043530A1 (en) Foldable electronic device, and display utilization method for foldable electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22924344

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022924344

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022924344

Country of ref document: EP

Effective date: 20240126