WO2024058458A1 - 웹페이지를 적응적으로 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 - Google Patents

웹페이지를 적응적으로 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 Download PDF

Info

Publication number
WO2024058458A1
WO2024058458A1 PCT/KR2023/012610 KR2023012610W WO2024058458A1 WO 2024058458 A1 WO2024058458 A1 WO 2024058458A1 KR 2023012610 W KR2023012610 W KR 2023012610W WO 2024058458 A1 WO2024058458 A1 WO 2024058458A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
reference position
signal
wearable device
processor
Prior art date
Application number
PCT/KR2023/012610
Other languages
English (en)
French (fr)
Inventor
이광현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220130985A external-priority patent/KR20240037790A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024058458A1 publication Critical patent/WO2024058458A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities

Definitions

  • the descriptions below relate to an electronic device, method, and non-transitory computer readable storage medium for adaptively displaying a webpage.
  • An electronic device can display a web page.
  • the web page may be displayed based on a markup language.
  • the markup language may include hypertext markup language (HTML) and/or Extensible markup language (XML).
  • the markup language may include containers, each containing visual objects.
  • each of the containers may be a tag for forming the layout of the web page.
  • each of the containers may be included within the web page for arrangement of visual objects within the web page.
  • the electronic device may include a communication circuit.
  • the electronic device may include a display.
  • the electronic device may include a processor operatively coupled to the communication circuit and the display.
  • the processor may be configured to display, through the display, a plurality of containers, each containing at least one visual object, within a web page.
  • the processor is configured to receive a signal indicating a positional relationship between the electronic device and the wearable device through the communication circuit from the wearable device worn by a user while the plurality of containers are displayed within the web page. It can be configured.
  • the processor maintains displaying the plurality of containers within the web page through the display, based on the signal indicating a first reference position relationship among the plurality of reference position relationships registered in the electronic device. It can be configured to do so.
  • the processor stops displaying at least one first container of the plurality of containers based on the signal indicating a second reference position relationship among the plurality of reference position relationships.
  • it may be configured to display at least one second container, which is different from the at least one first container, among the plurality of containers.
  • a method is provided.
  • the method may be implemented within an electronic device that includes communication circuitry and a display.
  • the method may include displaying, through the display, a plurality of containers, each containing at least one visual object, within a web page.
  • the method includes receiving a signal indicating a positional relationship between the electronic device and the wearable device through the communication circuit from the wearable device worn by a user while the plurality of containers are displayed within the web page.
  • the method maintains displaying the plurality of containers, within the web page, through the display, based on the signal indicating a first reference position relationship among the plurality of reference position relationships registered in the electronic device.
  • the method includes, through the display, stopping displaying at least one first container of the plurality of containers based on the signal indicating a second reference position relationship of the plurality of reference position relationships.
  • the method may include displaying at least one second container among the plurality of containers, which is different from the at least one first container.
  • a non-transitory computer-readable storage medium may store one or more programs.
  • the one or more programs when executed by a processor of an electronic device including a communication circuit and a display, display a plurality of containers, each containing at least one visual object, through the display, within a web page. , may include instructions that cause the electronic device to operate.
  • the one or more programs when executed by the processor, communicate between the electronic device and the wearable device via the communication circuit from the wearable device worn by a user while the plurality of containers are displayed within the web page. and instructions that cause the electronic device to receive a signal indicating the positional relationship.
  • the one or more programs When executed by the processor, the one or more programs, based on the signal indicating a first reference position relationship among a plurality of reference position relationships registered in the electronic device, through the display, within the web page, and instructions that cause the electronic device to maintain display of the plurality of containers.
  • the one or more programs when executed by the processor, display at least one first container among the plurality of containers based on the signal indicating a second reference position relationship among the plurality of reference position relationships. and instructions that cause the electronic device to display, through the display, within the webpage, at least one second container of the plurality of containers that is different from the at least one first container. there is.
  • the electronic device may include a display.
  • the electronic device may include a camera pointing in a direction corresponding to the direction in which the display faces.
  • the electronic device may include a processor operatively coupled to the camera and the display.
  • the processor may be configured to display, through the display, a plurality of containers, each containing at least one visual object, within a web page.
  • the processor may be configured to obtain an image of a user positioned in front of the display through the camera while the plurality of containers are displayed within the webpage.
  • the processor may be configured to maintain displaying the plurality of containers, within the webpage, based on the image representing the user with a size greater than or equal to a reference size and located within a reference area.
  • the processor based on the image representing the user having a size less than the reference size and located outside the reference area, stops displaying at least one first container of the plurality of containers, whereby the display It may be configured to display, within the web page, at least one second container that is different from the at least one first container among the plurality of containers.
  • a method is provided.
  • the method may be implemented within an electronic device that includes a display and a camera facing in a direction corresponding to the direction in which the display is facing.
  • the method may include displaying, through the display, a plurality of containers, each containing at least one visual object, within a web page.
  • the method may include obtaining an image of a user positioned in front of the display through the camera while the plurality of containers are displayed within the webpage.
  • the method may include maintaining display of the plurality of containers, within the webpage, based on the image representing the user, which has a size greater than or equal to a reference size and is located within a reference area. there is.
  • the method includes, based on the image representing the user having a size less than the reference size and being located outside the reference area, the display by stopping displaying at least one first container of the plurality of containers.
  • the method may include displaying at least one second container among the plurality of containers, which is different from the at least one first container, within the web page.
  • a non-transitory computer-readable storage medium may store one or more programs.
  • the one or more programs when executed by a processor of an electronic device including a display and a camera facing in a direction corresponding to the direction in which the display is facing, each include at least one visual object through the display and within a web page. and instructions that cause the electronic device to display a plurality of containers.
  • the one or more programs when executed by the processor, include instructions that cause the electronic device to acquire an image of a user positioned in front of the display through the camera while the plurality of containers are displayed within the webpage. may include.
  • the one or more programs when executed by the processor, display the plurality of containers within the web page based on the image representing the user with a size greater than or equal to a standard size and located within a reference area. and instructions that cause the electronic device to maintain.
  • the one or more programs when executed by the processor, the one or more programs, based on the image representing the user with a size less than the reference size and located outside the reference area, display at least one first container of the plurality of containers.
  • Instructions for causing the electronic device to display, through the display, within the webpage, at least one second container of the plurality of containers that is different from the at least one first container, by stopping displaying. may include.
  • FIG. 1 illustrates an example of an environment containing example electronic and wearable devices.
  • FIG. 2 is a simplified block diagram of an exemplary electronic device.
  • FIG. 3 is a simplified block diagram of an example wearable device.
  • Figure 4 shows an example of a plurality of reference position relationships.
  • Figure 5A shows an example of positioning via UWB (ultra wideband or ultra-wide band).
  • Figure 5B shows an example of positioning based on communication with a pair of wearable devices via UWB.
  • Figure 5C shows an example of identifying azimuth and/or elevation angle via UWB.
  • Figure 6 shows an example of positioning through UWB according to movement of a wearable device.
  • Figure 7 shows an example of assisting positioning through UWB using information about the movement of a wearable device.
  • Figure 8 shows an example of positioning via UWB performed using another electronic device that is distinct from the electronic device.
  • Figure 9 shows an example of acquiring an image through a camera of a wearable device.
  • Figure 10 shows an example of acquiring an image through a camera of an electronic device.
  • FIG. 11 shows an example of multiple representations of a web page.
  • Figure 12 shows an example of a posture of a wearable device.
  • Figure 13 shows an example of an executable object displayed along with a web page at a changed location according to a change in the posture of the wearable device.
  • FIG. 14 is a flowchart illustrating a method of adaptively displaying a web page based on a signal received from a wearable device.
  • Figure 15 is a flowchart showing a method of adaptively displaying a web page based on an image acquired through a camera.
  • 16 is a block diagram of an electronic device in a network environment according to various embodiments.
  • FIG. 1 illustrates an example of an environment containing example electronic and wearable devices.
  • the environment 100 may include an electronic device 101 and a wearable device 102 .
  • the electronic device 101 may be a device that can display a webpage 110.
  • the electronic device 101 may be a bar-type device including a display, or a foldable-type device including a foldable display.
  • the electronic device 101 may be a rollable type device including a rollable display.
  • the electronic device 101 may display the web page 110 while being separated from the user 120 .
  • the electronic device 101 may display the web page 110 in a state that is not gripped by the user 120.
  • the electronic device 101 may display the web page 110 in a state that is not held by the user 120.
  • the user 120 is displayed while the web page 110 is displayed through the electronic device 101. You can move.
  • the positional relationship between the electronic device 101 and the user 120 may change according to the movement of the user 120.
  • the change in the location relationship may reduce the quality of service through the web page 110.
  • the visibility of the web page 110, which remains independent of the movement of the user 120 may be reduced according to the change in the positional relationship.
  • the distance between location 131 and electronic device 101 is different from the distance between location 132 and electronic device 101, and thus is suitable for user 120 at location 131.
  • the presentation of the webpage 110 may be different from the presentation of the webpage 110 appropriate for the user 120 at location 132.
  • the representation of the webpage 110 appropriate for the user 120 at location 132 may be different from the representation of the webpage 110 appropriate for the user 120 at location 133.
  • the electronic device 101 may identify the location of the user 120 and display the web page 110 based on the identified location, in order to provide enhanced quality services in connection with the display of the web page 110.
  • the expression or display of (110) can be changed.
  • the electronic device 101 may identify the location of the user 120 based on information received from the wearable device 102 worn by the user 120.
  • wearable device 102 may be a pair of two or more devices.
  • the wearable device 102 may be earbuds.
  • wearable device 102 may be a single wearable device, such as an augmented glass (AR) glass.
  • AR augmented glass
  • the electronic device 101 may identify the location of the user 120 using components of the electronic device 101 in a standalone state with respect to the wearable device 102. .
  • the electronic device 101 may include at least one component for identifying the location.
  • the electronic device 101 may include at least one component for displaying a web page 110.
  • the wearable device 102 may include at least one component for identifying the location. Components included in the electronic device 101 and components included in the wearable device 102 may be illustrated through FIGS. 2 and 3 .
  • FIG. 2 is a simplified block diagram of an exemplary electronic device.
  • the electronic device 101 may include a processor 210, a display 220, and at least one communication circuit 230.
  • the electronic device 101 may further or alternatively include a camera 240.
  • the electronic device 101 may further or alternatively include at least one sensor 250.
  • the electronic device 101 may include at least a portion of the electronic device 1601 of FIG. 16 .
  • the processor 210 may include at least a portion of the processor 1620 of FIG. 16.
  • the display 220 may include at least a portion of the display module 1860 of FIG. 16 .
  • at least one communication circuit 230 may include at least a portion of the wireless communication module 1692 of FIG. 16 .
  • the camera 240 may include at least a portion of the camera module 1680 of FIG. 16 .
  • at least one sensor 250 may include at least a portion of the sensor module 1676 of FIG. 16 .
  • the processor 210 may be configured to execute operations of the electronic device 101, which will be illustrated below.
  • the processor 210 may control the display 220, at least one communication circuit 230, camera 240, and/or at least one sensor 250 for the above operations.
  • processor 210 may be operatively or operably coupled to display 220, at least one communication circuit 230, camera 240, and/or at least one sensor 250.
  • the fact that the processor 210 and a component of the electronic device 101 are operatively coupled may indicate that the processor 210 is directly connected to the component to control the component.
  • operational coupling of the processor 210 and the component may indicate that the processor 210 is connected to the component through another component of the electronic device 101 to control the component. .
  • the display 220 may be used to display a web page (eg, web page 110 of FIG. 1).
  • display 220 may be deformable or flexible.
  • the display 220 is a foldable device that provides a first state in which the display area faces substantially one direction and a second state in which part of the display area and another part of the display area face different directions. It could be a display.
  • the display 220 may be a rollable display in which a portion of the display area can be moved into the housing of the electronic device 101.
  • At least one communication circuit 230 may be used to identify the location of a user (eg, user 120 of FIG. 1).
  • at least one communication circuit 230 may be used to identify the location of the wearable device 102 worn by the user.
  • the at least one communication circuit 230 may include a communication circuit for communication with the wearable device 102 via UWB (ultra wideband or ultra-wide band).
  • at least one communication circuit 230 may be used to receive information for identifying the location of the user (e.g., information about an image as illustrated below) and, distinct from the communication circuit, May include another communication circuit.
  • the other communication circuit may be a circuit for communication with the wearable device 102 through Bluetooth legacy and/or BLE (Bluetooth low energy).
  • At least one communication circuit 230 may include a circuit for receiving information for displaying a web page (eg, web page 110 of FIG. 1).
  • the camera 240 may be used to identify the location of a user (eg, user 120 in FIG. 1).
  • the camera 240 may point in a direction corresponding to the direction in which the display 220 faces.
  • the camera 240 may be placed below the display area of the display 220.
  • the camera 240 may be exposed through a portion of the bezel area surrounding the display area of the display 220.
  • At least one sensor 250 may be used to identify the state of the electronic device 101 and/or the state of the environment surrounding the electronic device 101 (e.g., environment 100 in FIG. 1). You can.
  • FIG. 3 is a simplified block diagram of an example wearable device.
  • the wearable device 102 may include a processor 310, at least one communication circuit 320, and at least one sensor 330. Although not shown in FIG. 3 , wearable device 102 may further include, or alternatively, speakers, a microphone, and/or a display.
  • the wearable device 102 may include at least a portion of the electronic device 102 of FIG. 16 .
  • processor 310 may be configured to execute operations of wearable device 102 as illustrated below.
  • the processor 310 may control at least one communication circuit 320 and/or at least one sensor 330 for the above operations.
  • the processor 310 may be operatively or operably coupled with at least one communication circuit 320 and/or at least one sensor 330.
  • At least one communication circuit 320 may be used to identify the location of a user (eg, user 120 of FIG. 1).
  • at least one communication circuit 320 may include a communication circuit for communication with the electronic device 101 via UWB.
  • at least one communication circuit 230 may be used to receive information for identifying the location of the user (e.g., information about an image as illustrated below) and, distinct from the communication circuit, May include other communication circuits.
  • the other communication circuit may be a circuit for communication with the electronic device 101 through Bluetooth legacy and/or BLE (Bluetooth low energy).
  • At least one sensor 330 may be used to identify the state of the wearable device 102 and/or the state of the environment surrounding the wearable device 102 (e.g., environment 100 of FIG. 1). You can.
  • at least one sensor 330 may include circuitry for identifying movement of the wearable device 102.
  • at least one sensor 330 may include circuitry for identifying the posture (or orientation) of the wearable device 102.
  • at least one sensor 330 may include an acceleration sensor, a gyro sensor, and/or a pedometer. However, it is not limited to this.
  • the processor 210 may identify the location of a user (eg, user 120 of FIG. 1 ) using a plurality of reference position relationships.
  • each of the plurality of reference position relationships may represent each of a plurality of partial regions divided into an area around the electronic device 101.
  • each of the plurality of reference position relationships may represent each of a plurality of partial areas defined based on the position of the electronic device 101.
  • the plurality of reference position relationships are used in the electronic device 101 to change the representation of a web page (e.g., the web page 110 of FIG. 1) displayed through the display 220. It can be saved.
  • the positional relationship between the position of the user (or the position of the wearable device 102 worn by the user) and the electronic device 101 is a first reference position relationship among the plurality of reference position relationships.
  • the representation of the web page suitable for the user may be the web page suitable for the user when the location relationship is a second reference location relationship that is different from the first reference location relationship among the plurality of reference location relationships.
  • the plurality of reference position relationships may each correspond to a plurality of representations of the web page.
  • the first reference position relationship may correspond to a first representation of the web page
  • the second reference position relationship may correspond to a second representation of the web page.
  • the processor 210 may determine the electronic device 101 and the user (or the user) identified by the electronic device 101 and/or the wearable device 102, among the plurality of reference position relationships.
  • a reference position relationship corresponding to the position relationship between the wearable device 102 worn by the wearable device 102 may be identified, and the web page may be displayed in an expression corresponding to the identified reference position relationship.
  • the plurality of reference position relationships registered or stored in the electronic device 101 may be illustrated through FIG. 4 .
  • Figure 4 shows an example of a plurality of reference position relationships.
  • an electronic device 101 including a display 220 including a display area having a first size 400 may store information about a plurality of reference position relationships 410 .
  • the plurality of reference position relationships 410 may be defined based on the distance from the electronic device 101.
  • the plurality of reference position relationships 410 may be defined based on an angle formed (or defined) from the reference line 411 indicating the front of the display 220 of the electronic device 101.
  • the first reference position relationship 410-1 among the plurality of reference position relationships 410 indicates that the distance from the electronic device 101 is less than the first reference distance 421 and the distance from the reference line 411 is It may indicate a positional relationship between the user (or the wearable device 102 worn by the user) and the electronic device 101 at a position where the angle is less than the first reference angle 431.
  • the second reference position relationship 410-2 and the third reference position relationship 410-3 have the distance less than the first reference distance 421 and It can represent the positional relationship between the user (or the wearable device 102 worn by the user) and the electronic device 101 at a position where the angle is greater than or equal to the first reference angle 431 and less than the second reference angle 432.
  • the second reference position relationship 410-2 represents the position relationship at a position that is greater than or equal to the first reference angle 431 and less than the second reference angle 432 in a clockwise direction based on the reference line 411. You can.
  • the third reference position relationship 410-3 is the position relationship at a position that is greater than or equal to the first reference angle 431 and less than the second reference angle 432 in a counterclockwise direction based on the reference line 411. It can be expressed.
  • the distance is greater than or equal to the first reference distance 421 and less than the second reference distance 422, and the angle is It may indicate a positional relationship between the user (or the wearable device 102 worn by the user) and the electronic device 101 at a position less than 1 reference angle 431.
  • the fifth reference position relationship 410-5 and the sixth reference position relationship 410-6 have the distance greater than or equal to the first reference distance 421 and the second reference position relationship 410-5.
  • the user or the wearable device 102 worn by the user and the electronic device 101 at a location that is less than the reference distance 422 and the angle is greater than or equal to the first reference angle 431 and less than the second reference angle 432.
  • the fifth reference position relationship 410-5 represents the position relationship at a position that is greater than or equal to the first reference angle 431 and less than the second reference angle 432 in a clockwise direction based on the reference line 411.
  • the sixth reference position relationship 410-6 is the position relationship at a position that is greater than or equal to the first reference angle 431 and less than the second reference angle 432 in a counterclockwise direction based on the reference line 411. It can be expressed.
  • the distance is greater than or equal to the second reference distance 422 and less than the third reference distance 423, and the angle is It may indicate a positional relationship between the user (or the wearable device 102 worn by the user) and the electronic device 101 at a position less than 1 reference angle 431.
  • the eighth reference position relationship 410-8 and the ninth reference position relationship 410-9 have the distance greater than or equal to the second reference distance 422 and the third reference position relationship 410-8.
  • the user (or the wearable device 102 worn by the user) and the electronic device 101 at a location that is less than the reference distance 423 and the angle is greater than or equal to the first reference angle 431 and less than the second reference angle 432.
  • the eighth reference position relationship 410-8 represents the position relationship at a position that is greater than or equal to the first reference angle 431 and less than the second reference angle 432 in a clockwise direction based on the reference line 411.
  • the ninth reference position relationship 410-9 is the position relationship at a position that is greater than or equal to the first reference angle 431 and less than the second reference angle 432 in a counterclockwise direction based on the reference line 411. It can be expressed.
  • the size of each of the plurality of partial regions each represented by the plurality of reference position relationships may vary depending on the size of the display area of the display 220.
  • the electronic device 101 including the display 220 including the display area having a second size 450 larger than the first size 400 may correspond to a plurality of reference position relationships 460.
  • Information can be stored.
  • the size of the area represented by the plurality of reference position relationships 460 may be larger than the size of the area represented by the plurality of reference position relationships 410.
  • the processor 210 compares the user (or the wearable device 102 worn by the user) and the electronic device 101 Information about the positional relationship between them can be obtained.
  • the information may be obtained through various methods.
  • the information can be obtained through positioning through UWB.
  • the positioning through the UWB can be illustrated through FIG. 5A.
  • Figure 5A shows an example of positioning via UWB (ultra wideband or ultra-wide band).
  • the operations illustrated in FIG. 5A may be executed by the electronic device 101 (eg, processor 210) and the wearable device 102 (eg, processor 310).
  • the wearable device 102 sends a first signal to the electronic device 101 through at least one communication circuit 320 (e.g., a communication circuit for communication via UWB). Can be sent.
  • the first signal may be referred to as a poll message.
  • the wearable device 102 may transmit the first signal based on address information of the electronic device 101 recognized within the wearable device 102.
  • the wearable device 102 may record or store the first time (T1) of the first signal.
  • the electronic device 101 may receive the first signal through at least one communication circuit 230 (eg, a communication circuit for communication via UWB).
  • the electronic device 101 may record or store the fourth time (T4) at which the first signal is received.
  • the electronic device 101 may transmit a second signal to the wearable device 102 through at least one communication circuit 230 in response to the first signal.
  • the second signal may be a response signal to the first signal.
  • the second signal may be referred to as a response message.
  • the electronic device 101 may record or store the fifth time T5 at which the second signal was transmitted.
  • the wearable device 102 may receive the second signal through at least one communication circuit 320.
  • the wearable device 102 may record or store the second time T2 at which the second signal is received.
  • the wearable device 102 may transmit a third signal to the electronic device 101 through at least one communication circuit 320 based on the second signal.
  • the third signal may include data about a first time (T1), a second time (T2), and a third time (T3) at which the third signal was transmitted.
  • the first time T1, the second time T2, and the third time T3 are the third signals to identify the distance between the electronic device 101 and the wearable device 102. may be included within.
  • the electronic device 101 may receive the third signal through at least one communication circuit 230.
  • the electronic device 101 may record or store the sixth time T6 at which the third signal is received.
  • the electronic device 101 operates at a first time (T1), a second time (T2), a third time (T3), a fourth time (T4), and a fifth time in response to the third signal.
  • T5 the sixth time
  • the distance between the electronic device 101 and the wearable device 102 can be identified.
  • the electronic device 101 has the first time (T1), the second time (T2), the third time (T3), the fourth time (T4), and the fifth time (T5) in Equation 1 below. ), and based on applying the sixth time T6, the distance can be identified.
  • time of flight is the time until the signal from the electronic device 101 reaches the wearable device 102 (or the time until the signal from the wearable device 102 reaches the electronic device 101). time until it is reached).
  • the electronic device 101 may identify the distance based on applying the speed of light to the ToF obtained through Equation 1, as shown in Equation 2 below.
  • Equation 2 D may represent the distance, and c may represent the speed of light.
  • the electronic device 101 may use the information about the identified distance as the information about the positional relationship between the user (or the wearable device 102 worn by the user) and the electronic device 101. Information can be obtained.
  • the electronic device 101 may connect the two or more devices by executing the operations illustrated through FIG. 5A with each of the two or more devices.
  • the distance between each and the electronic device 101 can be identified. The identification of the distance can be illustrated through Figure 5b.
  • Figure 5B shows an example of positioning based on communication with a pair of wearable devices via UWB.
  • the wearable device 102 may be a pair of a first wearable device 102-1 and a second wearable device 102-2.
  • the electronic device 101 based on executing the operations illustrated through the first wearable device 102-1 and FIG. 5A, the first wearable device 102-1 and the electronic device 101 ) can be identified.
  • the electronic device 101 connects the second wearable device 102-2 and the electronic device 101 based on executing the operations illustrated through FIG. 5A with the second wearable device 102-2. ) can be identified.
  • the electronic device 101 sends information about the distance D1 and the distance D2 to the user (or the first wearable device 102-1 and the second wearable device 102-2 worn by the user). ) can be obtained with the information about the positional relationship between the electronic device 101 and the electronic device 101.
  • the information about distance D1 and distance D2 can be used to identify information about the direction from electronic device 101 to the user or from the user to electronic device 101. However, it is not limited to this.
  • At least one communication circuit 230 receives signals (e.g., the first signal, the second signal, and the third signal in FIG. 5A). It can be connected to a plurality of antennas for reception of signals).
  • the plurality of antennas may have a first direction from the electronic device 101 to the wearable device 102, a second direction from the wearable device 102 to the electronic device 102, a reference direction (or reference line), and It may be used to identify the angle between the first direction or the angle between the reference direction and the second direction.
  • the plurality of antennas can be illustrated through FIG. 5C.
  • Figure 5C shows an example of identifying azimuth and/or elevation angle via UWB.
  • the electronic device 101 may include a plurality of antennas 550 connected to at least one communication circuit 230 (eg, a communication circuit for communication via UWB).
  • the plurality of antennas 550 may include a first antenna 551 and a second antenna 552.
  • the first antenna 551 and the second antenna 552 may be arranged along the first direction 561 corresponding to the horizontal direction.
  • the second antenna 552 may be spaced apart from the first antenna 551.
  • the processor 210 receives a signal (e.g., the first signal and/or the third signal in FIG. 5A) from the wearable device 102 through the first antenna 551, and Can be received through the second antenna 552.
  • a signal e.g., the first signal and/or the third signal in FIG. 5A
  • the length of the first horizontal path from the wearable device 102 to the first antenna 551 and the second antenna from the wearable device 102 may be different.
  • the processor 210 determines the difference between the length of the first horizontal path and the length of the second horizontal path and sends the signal to the first antenna 551 and the second antenna 552. Based on what you receive from each, you can identify them.
  • the processor 210 may identify the azimuth angle 571 of the wearable device 102 with respect to the reference direction 570 based on the difference.
  • the reference direction 570 may correspond to a direction toward the front of the display 220. However, it is not limited to this.
  • the plurality of antennas 550 may further include or alternatively include a third antenna 553.
  • the first antenna 551 and the third antenna 553 may be arranged along the second direction 562 corresponding to the vertical direction.
  • the third antenna 553 may be spaced apart from the first antenna 551.
  • the processor 210 receives a signal (e.g., the first signal and/or the third signal in FIG. 5A) from the wearable device 102 through the first antenna 551, and Can be received through the third antenna 553.
  • the length of the first vertical path from the wearable device 102 to the first antenna 551 and the length of the first vertical path from the wearable device 102 to the third antenna 553 may be different.
  • the processor 210 determines the difference between the length of the first vertical path and the length of the second vertical path and sends the signal to the first antenna 551 and the third antenna 553, respectively. Based on what it receives, it can be identified. For example, the processor 210 may identify the elevation angle 572 of the wearable device 102 with respect to the reference direction 570 based on the difference.
  • the electronic device 101 sends information about the azimuth angle 571 and/or the elevation angle 572 to the user (or the wearable device 102 worn by the user) and the electronic device 101. With the information about the positional relationship between the two, more can be obtained.
  • positioning through UWB may be executed based on set conditions.
  • the wearable device 102 may execute operation 501 of FIG. 5A based on identifying the set condition.
  • wearable device 102 may execute the positioning operation (e.g., operation 501 of FIG. 5A) in response to identifying that wearable device 102 is worn by the user.
  • the wearable device 102 may execute the operation (eg, operation 501 of FIG. 5A) based on the movement of the wearable device 102 worn by the user. Executing the operation according to the movement of the wearable device 102 worn by the user can be illustrated through FIG. 6 .
  • Figure 6 shows an example of positioning through UWB according to movement of a wearable device.
  • the processor 310 may identify the movement 601 of the wearable device 102 worn by the user 120 through at least one sensor 330 .
  • movement 601 may include moving the wearable device 102 worn by the user 120 toward the electronic device 101 .
  • processor 310 may identify movement 601 through an acceleration sensor, gyro sensor, and/or pedometer of wearable device 102 .
  • the processor 310 may change the state of the wearable device 102 from the first state 611 to the second state 612 in response to the movement 601 .
  • the first state 611 is a state in which at least one communication circuit 320 (e.g., a communication circuit for communication via UWB) is deactivated or a signal (e.g., a signal is transmitted through the at least one communication circuit 320).
  • a signal e.g., a signal is transmitted through the at least one communication circuit 320.
  • the second state 612 may represent a state in which the signal is transmitted through at least one communication circuit 320 or a state in which transmission of the signal is authorized.
  • the processor 310 may identify the movement 621 of the wearable device 102 worn by the user 120 through at least one sensor 330.
  • movement 621 may include moving the wearable device 102 worn by the user 120 from the front of the electronic device 101 to the side of the electronic device 101 .
  • processor 310 may identify movement 621 via the acceleration sensor, the gyro sensor, and/or the pedometer.
  • the processor 310 may change the state of the wearable device 102 from the first state 611 to the second state 612 in response to the movement 621 .
  • the change from first state 611 to second state 612 may be effected in response to the end of movement 601 and/or movement 621.
  • processor 310 may, in response to the initiation of movement 601 and/or movement 621, determine movement 601 and/or movement 621 to identify the location of wearable device 102 within a stationary state. It may be possible to identify whether movement 621 is terminated and change first state 611 to second state 612 in response to said termination of movement 601 and/or movement 621 . However, it is not limited to this.
  • the processor 310 may change the first state 611 to the second state 612 while movement 601 and/or movement 621 are in progress.
  • the wearable device 102 changes the first state 611 to the second state 612 based on movement 601 and/or movement 621, thereby resulting in the movement for positioning. Power consumption can be reduced.
  • the processor 210 identifies the positional relationship between the user (or the wearable device 102 worn by the user) and the electronic device 101 based on positioning through UWB. Afterwards, the change in the positional relationship can be identified using a method that is distinct from the positioning through UWB. For example, the processor 210 may identify the change in the positional relationship using information about the movement of the wearable device 102, obtained through at least one sensor 330 of the wearable device 102. You can. For example, the information about the movement of the wearable device 102 may assist positioning via UWB. Assisting positioning through UWB using the information about the movement of the wearable device 102 can be illustrated through FIG. 7 .
  • Figure 7 shows an example of assisting positioning through UWB using information about the movement of a wearable device.
  • the processor 310 may perform the positioning through UWB with the electronic device 101 in the second state 612. Although not shown in FIG. 7, the processor 210 of the electronic device 101 may identify the positional relationship between the wearable device 102 and the electronic device 101 in the second state 612 through the positioning. You can.
  • wearable device 102 may be moved.
  • the processor 310 may identify the movement 701 of the wearable device 102 worn by the user 120 through at least one sensor 330.
  • movement 701 may include moving the wearable device 102 worn by the user 120 toward the electronic device 101 .
  • processor 310 may identify movement 701 through an acceleration sensor, gyro sensor, and/or pedometer of wearable device 102 .
  • the processor 310 may change the state of the wearable device 102 from the second state 612 to the third state 713 in response to the movement 701 .
  • the third state 713 may represent a state in which a signal is transmitted through communication (eg, Bluetooth legacy and/or BLE) that is distinct from communication through UWB.
  • the signal transmitted in the third state 713 may include information about the movement of the wearable device 102.
  • the information may indicate a change in the position of the wearable device 102 that is moved after the positional relationship is identified.
  • the processor 210 may identify the changed positional relationship by receiving the signal transmitted from the wearable device 102 in the third state 713.
  • the processor 210 may obtain information about the changed positional relationship.
  • the processor 310 may identify the movement 721 of the wearable device 102 worn by the user 120 through at least one sensor 330.
  • movement 721 may include moving the wearable device 102 worn by the user 120 from the front of the electronic device 101 to the side of the electronic device 101 .
  • processor 310 may identify movement 721 via the acceleration sensor, the gyro sensor, and/or the pedometer.
  • the processor 310 may change the state of the wearable device 102 from the second state 612 to the third state 713 in response to the movement 721 .
  • the processor 210 may identify the changed positional relationship by receiving the signal transmitted from the wearable device 102 in the third state 713.
  • the processor 210 may obtain information about the changed positional relationship.
  • the wearable device 102 changes the first state 611 to the second state 612 based on movement 601 and/or movement 621, thereby resulting in the movement for positioning. Power consumption can be reduced.
  • the electronic device 101 includes at least one communication circuit among a communication circuit for communication through UWB and another communication circuit for other communication distinct from the communication through UWB ( 230).
  • the electronic device 101 may perform positioning through UWB using another electronic device that includes a communication circuit for the communication through UWB. Positioning through UWB performed using the other electronic device will be illustrated through FIG. 8.
  • Figure 8 shows an example of positioning via UWB performed using another electronic device that is distinct from the electronic device.
  • another electronic device 801 may have the ability to perform communication through UWB.
  • the other electronic device 801 may include a communication circuit for the communication via UWB with the electronic device 101 and another communication circuit for other communication distinct from the communication via UWB.
  • another electronic device 801 may perform positioning 802 through UWB with the wearable device 102 through the communication circuit.
  • positioning 802 may be performed similarly to Figure 5A.
  • the other electronic device 801 transmits information 803 about the positional relationship between the other electronic device 801 and the wearable device 102 to the electronic device 101 through the other communication circuit. can do.
  • the processor 210 may receive information 803 from another electronic device 801.
  • the processor 210 may determine the positional relationship between the wearable device 102 worn by the user and another electronic device 801, identified based on the information 803, to the electronic device 101. It can be converted into a positional relationship between the user and the user (or the wearable device 102 worn by the user). For example, when another electronic device 801 is supported or mounted by the electronic device 101, the processor 210 can recognize the positional relationship between the other electronic device 801 and the electronic device 101. Because there is, the processor 210 determines the positional relationship between another electronic device 801 and the wearable device 102 worn by the user, between the electronic device 101 and the user (or the wearable device 102 worn by the user). The positional relationship between the wearable devices 102 can be converted. For example, the processor 210 may perform positioning through UWB using another electronic device 801.
  • the processor 210 determines the positioning between the electronic device 101 and the user (or the wearable device 102 worn by the user) based on another method distinct from positioning through UWB.
  • the information about the positional relationship can be obtained.
  • the processor 210 may obtain the information about the positional relationship by receiving information about an image representing the electronic device 101 from the wearable device 102.
  • the image may be acquired through the camera of the wearable device 102. Acquiring the image through the camera can be illustrated through FIG. 9.
  • Figure 9 shows an example of acquiring an image through a camera of a wearable device.
  • processor 310 of wearable device 102 at location 901 may acquire image 903 through a camera of wearable device 102 , as in state 902 .
  • the image 903 may be an image representing the electronic device 101 .
  • image 903 may include a visual object 904 corresponding to electronic device 101 .
  • processor 310 may, based on identifying that visual object 904 is included in image 903, send information about image 903 to electronic device ( 101).
  • the processor 210 may receive the information about the image 903 from the wearable device 102.
  • processor 210 may, in response to the reception, generate electronic information based on the size of visual object 904 within image 903 and the location of visual object 904 within image 903.
  • the positional relationship between the device 101 and the user (or the wearable device 102 worn by the user) may be identified.
  • processor 310 of wearable device 102 at location 911 may acquire image 913 via the camera, as in state 912.
  • image 913 may be an image representing the electronic device 101.
  • image 913 may include a visual object 904 corresponding to electronic device 101 .
  • processor 310 may, based on identifying that visual object 904 is included in image 913, send information about image 913 to electronic device ( 101).
  • the processor 210 may receive the information about the image 913 from the wearable device 102.
  • processor 210 may, based on the size of visual object 904 within image 913 and the location of visual object 904 within image 913, electronically
  • the positional relationship between the device 101 and the user (or the wearable device 102 worn by the user) may be identified.
  • processor 210 may, based on the size of visual object 904 within image 913 and the location of visual object 904 within image 913, communicate with electronic device 101.
  • the positional relationship between the user (or the wearable device 102 worn by the user) may be identified.
  • processor 210 may determine state 912 based on visual object 904 in image 913 having a smaller size than the size of visual object 904 in image 903. It may be identified that the distance between the electronic device 101 and the wearable device 102 in is longer than the distance between the electronic device 101 and the wearable device 102 in state 902.
  • processor 310 of wearable device 102 at location 921 may acquire image 923 via the camera, such as state 922.
  • image 923 may be an image representing the electronic device 101.
  • image 923 may include a portion of visual object 904 corresponding to electronic device 101 .
  • processor 310 may, based on identifying that the portion of visual object 904 is included in image 923, transmit information about image 923 via at least one communication circuit 320. It can be transmitted to the electronic device 101.
  • the processor 210 may receive the information about the image 923 from the wearable device 102.
  • processor 210 may, in response to the reception, determine the size of visual object 904 within image 923 (or the size of the portion of visual object 904 within image 923).
  • processor 210 may, based on the size of visual object 904 within image 923 and the location of visual object 904 within image 923, connect electronic device 101 and the The positional relationship between the user (or the wearable device 102 worn by the user) may be identified.
  • processor 210 may determine state 922 based on the location of visual object 904 within image 913 and the location of visual object 904 within other images 923. It can be identified that the wearable device 102 of is located on the side of the electronic device 101, unlike the wearable device 102 in the state 912 located in the front of the electronic device 101.
  • the processor 210 in a standalone state with respect to the wearable device 102, communicates with the electronic device 101 and the user (or by the user) through the camera 240.
  • the information about the positional relationship between worn wearable devices 102 can be obtained.
  • the processor 210 provides information about the positional relationship based on the image acquired through the camera 240. Information can be obtained. Acquiring the image can be illustrated through FIG. 10.
  • Figure 10 shows an example of acquiring an image through a camera of an electronic device.
  • the processor 210 may obtain an image 1001 representing the user 120 using the camera 240, as in state 1000.
  • the image 1001 may include a visual object 1002 corresponding to at least a part of the body (eg, face) of the user 120.
  • processor 210 may refrain from displaying a preview image corresponding to image 1001 through display 220 while acquiring image 1001 .
  • acquiring image 1001 may be transparent to user 120 .
  • the processor 210 may determine the user 120 and the electronic device based on the size of the visual object 1002 within the image 1001 and the location of the visual object 1002 within the image 1001. Information about the positional relationship between (101) can be obtained.
  • the processor 210 may identify the distance between the user 120 and the electronic device 101 by comparing the size of the visual object 1002 with a reference size.
  • the reference size may be used within the electronic device 101 to identify the distance between the user 120 and the electronic device 101.
  • processor 210 may identify, within state 1000, that the size of visual object 1002 is greater than the reference size.
  • the processor 210 may provide direction from the user 120 to the electronic device 101 or the electronic device 100 by identifying whether the visual object 1002 is included within the reference area 1003 within the image 1001. The direction from 101) to the user 120 can be identified.
  • processor 210 may identify that user 120 is located in front of display 220 based on identifying that visual object 1002 is located within reference area 1003 .
  • the processor 210 may obtain an image 1021 representing the user 120 using the camera 240, as in state 1020.
  • the image 1021 may include a visual object 1002 corresponding to at least a part of the body of the user 120.
  • the processor 210 may refrain from displaying a preview image corresponding to the image 1021 through the display 220 while acquiring the image 1021 .
  • the processor 210 may determine the user 120 and the electronic device based on the size of the visual object 1002 within the image 1021 and the location of the visual object 1002 within the image 1021. Information about the positional relationship between (101) can be obtained.
  • processor 210 may identify the distance between user 120 and electronic device 101 by comparing the size of visual object 1002 within image 1021 with the reference size. there is. For example, processor 210 may identify, within state 1020, that the size of visual object 1002 is smaller than the reference size. For example, processor 210 may determine, based on the identification, that the distance between user 120 and electronic device 101 in state 1020 is determined by determining the distance between user 120 and electronic device 101 in state 1000. It is possible to identify the gap between the devices 101 rather than the distance between them. For example, processor 210 may determine that user 120 is located in front of display 220 within state 1020 based on identifying that visual object 1002 is located within reference area 1003. can be identified.
  • the processor 210 may obtain an image 1041 representing the user 120 using the camera 240, as in state 1040.
  • the image 1041 may include a visual object 1002 corresponding to at least a portion of the body of the user 120.
  • processor 210 may refrain from displaying a preview image corresponding to image 1041 while acquiring image 1041 .
  • processor 210 may interact with user 120 and electronic device based on the size of visual object 1002 within image 1041 and the location of visual object 1002 within image 1041. Information about the positional relationship between (101) can be obtained.
  • processor 210 may identify the distance between user 120 and electronic device 101 by comparing the size of visual object 1002 in image 1041 with the reference size. there is.
  • processor 210 may identify, within state 1040, that the size of visual object 1002 is smaller than the reference size. For example, the processor 210 may determine, based on the identification, that the distance between the user 120 and the electronic device 101 in state 1040 is the distance between the user 120 and the electronic device 101 in state 1020. It can be identified that it corresponds to the distance between devices 101. For example, processor 210 may determine that user 120 in state 1040 determines that user 120 in state 1020 based on identifying that visual object 1002 is located outside of reference region 1003 Unlike 120, it can be identified that it is located on the side of the display 220.
  • FIG. 10 shows the user 120 not wearing the wearable device 102, but this is to indicate that the operations illustrated in FIG. 10 can be performed independently of the wearable device 102.
  • the electronic device 101 may execute the operations illustrated in FIG. 10 along with operations for positioning through UWB that are executed together with the wearable device 102.
  • the processor 210 compares the position relationship between the user (or the wearable device 102 worn by the user) and the electronic device 101 with each of the plurality of reference position relationships. You can.
  • the processor 210 may identify a reference position relationship corresponding to the position relationship among the plurality of reference position relationships.
  • the plurality of reference position relationships may correspond to a plurality of representations of the web page.
  • the plurality of reference position relationships may be registered within the electronic device 101 in association with the plurality of representations of the web page.
  • the processor 210 may display the web page based on an expression corresponding to the reference position relationship among the plurality of expressions.
  • the plurality of expressions can be illustrated through FIG. 11.
  • FIG. 11 shows an example of multiple representations of a web page.
  • the web page may have a plurality of expressions 1100.
  • the plurality of representations 1100 may include a first representation 1101, a second representation 1132, and a third representation 1163.
  • the first expression 1101 may be an expression for a user who is relatively close to the electronic device 101 among the plurality of expressions 1100 .
  • the first expression 1101 may be an expression for a user who can focus on the web page displayed through the display 220.
  • the first expression 1101 may correspond to the first reference position relationship 410-1 and the fourth reference position relationship 410-4 among the plurality of reference position relationships 410 in FIG. 4. .
  • the first expression 1101 is used to display the web page when the position relationship corresponds to each of the first reference position relationship 410-1 and the fourth reference position relationship 410-4. It can be.
  • the first expression 1101 may correspond to the first reference position relationship 410-1 among the first reference position relationship 410-1 and the fourth reference position relationship 410-4.
  • the first representation 1101 has a greater amount of information provided from the web page displayed based on the second representation 1132 and the web page displayed based on the third representation 1163. It may be an expression intended to provide information.
  • the size of visual objects in the web page displayed based on the first representation 1101 may be adjusted to a second size due to limitations in the size of the display 220 (or the size of the display area of the display 220).
  • the size of the web page displayed based on the expression 1132 and the visual objects in the web page displayed based on the third expression 1163 may be smaller.
  • first representation 1101 may include a plurality of containers 1110.
  • the first representation 1101 may include a plurality of containers 1110 arranged in multiple rows.
  • each of the plurality of containers 1110 may be a tag for forming the layout of the web page.
  • the arrangement of a plurality of containers 1110 within the web page may be determined by an attribute assigned to each of the plurality of containers 1110 (e.g., an attribute with a specific name such as style). ) and/or information referenced by the web page including a plurality of containers 1110 (eg, CSS (cascaded style sheet)).
  • each of the plurality of containers 1110 may be included in the web page for arrangement of visual objects within the web page.
  • each of the plurality of containers 1110 may include at least one visual object.
  • the plurality of containers 1110 may include first containers 1111 to sixth containers 1116.
  • the first container 1111 among the plurality of containers 1110 may include at least one visual object corresponding to the title of the web page.
  • each of the second container 1112, the fourth container 1114, and the sixth container 1116 contains the body text and/or script of the web page. It may include at least one visual object corresponding to (script).
  • the size of the at least one visual object in each of the second container 1112, the fourth container 1114, and the sixth container 1116 is the size of the at least one visual object in the first container 1111. It may be smaller than the size of .
  • the third container 1113 among the plurality of containers 1110 may include at least one visual object corresponding to an image.
  • the at least one visual object in the third container 1113 is provided from each of the first container 1111, the second container 1112, the fourth container 1114, and the sixth container 1116. It can provide intuitive information rather than conventional information.
  • the fifth container 1115 among the plurality of containers 1110 may include at least one visual object corresponding to a video.
  • the at least one visual object in the fifth container 1115 is provided from each of the first container 1111, the second container 1112, the fourth container 1114, and the sixth container 1116. It can provide intuitive information rather than conventional information. However, it is not limited to this.
  • the third expression 1163 may be an expression for a user who is relatively distant from the electronic device 101 among the plurality of expressions 1100.
  • the third expression 1163 is the seventh reference position relationship 410-7, the eighth reference position relationship 410-8, and the ninth reference position relationship 410 of FIG. 4. It may correspond to the reference position relationship (410-9).
  • the third expression 1163 may indicate that the position relationship is the seventh reference position relationship 410-7, the eighth reference position relationship 410-8, and the ninth reference position relationship 410-9, respectively. When responding, it can be used to display the web page.
  • the third representation 1163 may provide a smaller amount of information than the web page displayed based on the first representation 1101 and the web page displayed based on the second representation 1132. It may be an expression intended to provide information.
  • the third expression 1163 is an expression for providing more intuitive information than the web page displayed based on the first expression 1101 and the web page displayed based on the second expression 1132. It can be.
  • the size of the visual object in the web page displayed based on the third expression 1163 is determined by the size of the visual object in the web page displayed based on the first expression 1101 and the second expression 1132, respectively. It may be larger than the size of . However, it is not limited to this.
  • the third representation 1163 may include a third container 1113 and a fifth container 1115.
  • the third container 1113 and the fifth container 1115 in the third representation 1163 are in a single raw, unlike the plurality of containers 1110 in the first representation 1101. can be arranged.
  • the size of each of the third container 1113 and the fifth container 1115 within the third representation 1163 is the size of the third container 1113 and the fifth container within the first representation 1101. (1115) May be larger than each size.
  • the size of the visual object within each of the third container 1113 and the fifth container 1115 within the third representation 1163 is It may be larger than the size of the visual object within each of the fifth containers 1115.
  • the resolution of the web page displayed based on the third representation 1163 is the first representation 1101.
  • the resolution of the visual object within each of the third container 1113 and the fifth container 1115 within the third representation 1163 may be the resolution of the third container 1113 and The resolution may be lower than that of the visual objects within each of the fifth containers 1115.
  • the second representation 1132 may be an intermediate representation between the first representation 1101 and the third representation 1163.
  • the second expression 1132 is a second reference position relationship 410-2, a third reference position relationship 410-3, and a fifth reference among the plurality of reference position relationships 410 in FIG. It may correspond to the positional relationship 410-5 and the sixth reference positional relationship 410-6.
  • the second representation 1132 may indicate that the position relationships include a second reference position relationship 410-2, a third reference position relationship 410-3, a fifth reference position relationship 410-5, and When corresponding to each of the sixth reference position relationships 410-6, it can be used to display the web page.
  • the second representation 1132 may further correspond to the fourth reference position relationship 410-4.
  • the second expression 1132 includes a third container 1113 and a fifth container 1115 for providing intuitive information among a plurality of containers 1110 to intuitively convey information. Unlike the 3 representation 1163, it may be based on the display order of the plurality of containers 1110.
  • the second representation 1132 may include a first container 1111, a second container 1112, a third container 1113, and a plurality of containers 1110, based on the display order. It may include 4 containers 1114.
  • the first to fourth containers 1111 to 1114 in the second representation 1132 are in a single raw, unlike the plurality of containers 1110 in the first representation 1101. can be arranged.
  • the size of each of the first containers 1111 to 4th containers 1114 in the second representation 1132 is the size of each of the first containers 1111 to 4th containers 1114 in the first representation 1101. It may be larger than the size of .
  • the size of the visual object within each of the first containers 11131 through fourth containers 1114 within the second representation 1132 is the size of the first through fourth containers 1111 within the first representation 1101. It may be larger than the size of the visual object within each of the four containers 1114.
  • visual objects in the web page included in each of the first expression 1101, the second expression 1132, and the third expression 1163 may be classified as shown in Table 1 below.
  • the first representation 1101, the second representation 1132, and the third representation 1163 may be adaptively provided based on other conditions as well as the plurality of reference position relationships. .
  • the processor 210 creates one of the first representation 1101, the second representation 1132, and the third representation 1163 based on the information.
  • Representations can be provided adaptively. For example, if, based on the information, it is identified that a value representative of the user's visual acuity is higher than the first value, a first representation 1101 is provided, and based on the information, the value representative of the user's visual acuity is higher than the first value.
  • a second expression 1132 is provided, and if identifying that the value is lower than or equal to the second value based on the information, a third expression 1163 is provided. ) can be provided. However, it is not limited to this.
  • the processor 210 determines the display position of at least one executable object displayed together with the web page based on the posture of the user (or the posture of the wearable device 102 worn by the user). ), it can be identified.
  • the processor 210 may, while displaying the at least one executable object along with the web page, receive information about the posture of the wearable device 102 from the wearable device 102 via at least one communication circuit 230.
  • a signal representing can be received.
  • the processor 310 may identify the posture of the wearable device 102 using at least one sensor 330. Identifying the posture of the wearable device 102 can be illustrated through FIG. 12 .
  • Figure 12 shows an example of a change in posture of a wearable device.
  • the processor 310 may identify a change in the posture of the wearable device 102 through at least one sensor 330 .
  • the change in posture may be identified via an acceleration sensor and/or a gyro sensor.
  • the processor 310 may identify the first rotation of the wearable device 102 about the yaw axis through at least one sensor 330.
  • the first rotation may represent the rotation 1201 of a part of the body of the user 120 wearing the wearable device 102.
  • the processor 310 may identify the second rotation of the wearable device 102 about the pitch axis through at least one sensor 330.
  • the second rotation may represent a rotation 1202 of a portion of the body of the user 120 wearing the wearable device 102.
  • the processor 310 may identify the third rotation of the wearable device 102 about the roll axis through at least one sensor 330.
  • the third rotation may represent the rotation 1203 of a part of the body of the user 120 wearing the wearable device 102.
  • the processor 310 may determine the posture of the wearable device 102 from the first posture 1211 based on identifying the first rotation, the second rotation, and/or the third rotation. It can be identified that the position has changed to 2 (1212).
  • the first posture 1211 represents the posture of the wearable device 102 when the user 120 looks at the portion of the web page
  • the second posture 1212 represents the posture of the wearable device 102 when the user 120 looks at the portion of the web page.
  • the posture of the wearable device 102 may be indicated when looking at another part of the web page located below the part of the web page.
  • the processor 310 changes the posture of the wearable device 102 from the first posture 1211 to the second posture 1212 based on the change from the first posture 1211 to the second posture 1212.
  • a signal indicating the change to can be transmitted to the electronic device 101.
  • the processor 210 may change the display position of the at least one executable object displayed together with the web page based on the signal from the wearable device 102. The change in the display position can be illustrated through FIG. 13.
  • Figure 13 shows an example of an executable object displayed along with a web page at a changed location according to a change in the posture of the wearable device.
  • the processor 210 may display at least one executable object 1312 along with a web page 1311 , such as a state 1310 .
  • a web page 1311 such as a state 1310 .
  • at least one executable object 1312 may control the web page 1311, control a software application used to display the web page 1311, or convert the web page 1311 to another web page. It can be used to change to . However, it is not limited to this.
  • processor 210 may, within state 1310, receive a signal from wearable device 102 indicating a posture of wearable device 102 or a change in posture of wearable device 102. .
  • the signal may be transmitted from the wearable device 102 according to a change from the first posture 1211 to the second posture 1212 in FIG. 12 .
  • processor 210 may change state 1310 to state 1320 in response to the signal.
  • the location of at least one executable object 1312 within state 1320 may be different from the location of at least one executable object 1312 within state 1310.
  • the first posture 1211 represents the posture of the wearable device 102 when the user 120 looks at the portion of the web page
  • the second posture 1212 represents the posture of the wearable device 102 when the user 120 looks at the portion of the web page. Because it indicates the posture of the wearable device 102 when looking at another part of the web page located below the part of the web page, the processor 210 provides the position of at least one executable object 1312. 2 The position can be changed to correspond to posture 1212.
  • the position of at least one executable object 1312 within state 132 may be determined by the second pose 1212 relative to the position of at least one executable object 1312 within state 1310. ) may be more suitable for. However, it is not limited to this.
  • the electronic device 101 may enhance the convenience of control related to the web page based on information acquired through at least one sensor 330 of the wearable device 102.
  • the electronic device 101 and the wearable device 102 may perform the operations illustrated in FIG. 14 .
  • the electronic device 101 may perform the operations illustrated in FIG. 15 .
  • FIG. 14 is a flowchart illustrating a method of adaptively displaying a web page based on a signal received from a wearable device. The method may be executed by the electronic device 101 or the processor 210.
  • the processor 210 may display a plurality of containers, each including at least one visual object, within a web page through the display 220.
  • the web page including the plurality of containers may correspond to a web page displayed based on the first expression 1101 of FIG. 11.
  • the plurality of containers may include a first container or a second container.
  • the processor 210 while the plurality of containers are displayed within the webpage, receives electronic information from the wearable device 102 worn by the user 120 via at least one communication circuit 230.
  • a signal indicating the positional relationship between the device 101 and the wearable device 102 may be received.
  • the signal may be the third signal in FIG. 5A.
  • the signal may be the information about image 903 in FIG. 9. However, it is not limited to this.
  • the processor 210 may identify whether the positional relationship indicated by the signal is a first or second reference positional relationship among a plurality of reference positional relationships registered in the electronic device 101.
  • the first reference position relationship may correspond to the first reference position relationship 410-1 and/or the fourth reference position relationship 410-4 of FIG. 4.
  • the second reference position relationship is the second reference position relationship 410-2, the third reference position relationship 410-3, the fifth reference position relationship 410-5, and/ Alternatively, it may correspond to the sixth reference position relationship 410-6.
  • the second reference position relationship is the seventh reference position relationship 410-7, the eighth reference position relationship 410-8, and/or the ninth reference position relationship 410-9 in FIG. can respond.
  • the second reference position relationship includes the second reference position relationship 410-2, third reference position relationship 410-3, fifth reference position relationship 410-5, and sixth reference position relationship in FIG. 4. It may correspond to the reference position relationship 410-6, the seventh reference position relationship 410-7, the eighth reference position relationship 410-8, and/or the ninth reference position relationship 410-9. However, it is not limited to this.
  • the processor 210 may execute operation 1407 under the condition that the position relationship is the first reference position relationship, and execute operation 1409 under the condition that the position relationship is the second reference position relationship.
  • the processor 210 In operation 1407, the processor 210, through the display 220, within the webpage, based on the signal indicating a first reference position relationship among a plurality of reference position relationships registered in the electronic device 101. , it is possible to maintain display of the plurality of containers. For example, when the position relationship corresponds to the first reference position relationship 410-1 and/or the fourth reference position relationship 410-4 of FIG. 4, the processor 210 may execute operation 1407. . For example, when the signal received in operation 1403 includes an image 903 acquired in state 902, processor 210 may execute operation 1407. However, it is not limited to this.
  • the processor 210 stops displaying at least one first container of the plurality of containers based on the signal indicating a second reference position relationship of the plurality of reference position relationships, by: Through the display 220, at least one second container that is different from the at least one first container among the plurality of containers can be displayed within the web page.
  • the web page including the at least one second container may correspond to a web page displayed based on the second representation 1132 or the third representation 1163 of FIG. 11 .
  • the position relationship is the second reference position relationship 410-2, the third reference position relationship 410-3, the fifth reference position relationship 410-5, and/or the sixth reference in FIG.
  • the processor 210 may execute operation 1409.
  • the position relationship corresponds to the 7th reference position relationship 410-7, the 8th reference position relationship 410-8, and/or the 9th reference position relationship 410-9 of FIG. 4,
  • Processor 210 may execute operation 1409.
  • the signal received in operation 1403 includes an image 913 acquired in state 912 or includes an image 923 acquired in state 922
  • processor 210 may: Operation 1409 may be executed.
  • the size of the at least one second container displayed based on the signal indicating the first reference position relationship may be the size of the at least one second container displayed based on the signal indicating the second reference position relationship. 2 It may be smaller than the size of the container.
  • the size of the visual object in the at least one second container displayed based on the signal indicating the first reference position relationship may be determined by the size of the at least one visual object displayed based on the signal indicating the second reference position relationship. It may be smaller than the size of the visual object within one second container.
  • the visual object within the at least one second container displayed based on the signal representing the first reference position relationship may be displayed at a first resolution
  • the visual object representing the second reference position relationship may be displayed at a first resolution.
  • the visual object within the at least one second container displayed based on a signal may be displayed at a second resolution lower than the first resolution.
  • the at least one visual object in the at least one first container may be text
  • the at least one visual object in the at least one second container may be an image or a video.
  • the plurality of reference position relationships may be based on the size of the display 220.
  • the priority of a visual object in the at least one first container from which display is stopped based on the signal indicative of the second reference position relationship may be determined based on the signal indicative of the second reference position relationship. may be lower than the priority of the visual object in the at least one second container maintained.
  • the electronic device 101 includes a first antenna connected to at least one communication circuit 230 and a second antenna connected to the at least one communication circuit 230 and spaced apart from the first antenna. Additional antennas may be included.
  • the processor 210 may receive the signal received through at least one communication circuit 230 using the first antenna and the signal received through at least one communication circuit 230 using the second antenna. By identifying the angle between the direction from the electronic device 101 to the wearable device 102 and the reference direction based on the signal, the signal indicates the first reference position relationship or the signal represents the second reference position relationship. It can be identified that it represents .
  • the electronic device 101 may further include other communication circuitry operatively coupled to the processor 210 .
  • the processor 210 may display at least one executable object along with the web page including the plurality of containers through the display 220 .
  • the processor 210 may, while the at least one executable object is displayed with the webpage including the plurality of containers, communicate with the wearable device 102 via the other communication circuitry. 102) can receive another signal indicating the posture.
  • the processor 210 may, based on the other signal indicating a first reference posture among a plurality of reference postures of the wearable device 102 registered in the electronic device 101, include the plurality of containers.
  • the location of the at least one executable object displayed with the web page may be maintained.
  • the processor 210 displays the web page including the plurality of containers based on the other signal indicating a second reference posture that is different from the first reference posture among the plurality of reference postures.
  • the location of the at least one executable object may be changed.
  • the processor 210 may display the wearable device 102 while the at least one second container among the plurality of containers is displayed within the webpage based on the signal indicating the second reference position relationship. ) may receive information about a touch input contacted on a part of the wearable device 102 through the other communication circuit. For example, processor 210 may, in response to the information, stop displaying a portion of the at least one second container and remove a portion of the at least one first container by moving the at least one second container. It can be displayed.
  • the processor 210 may receive a first signal from the wearable device 102 through the communication circuit while the plurality of containers are displayed within the web page. For example, the processor 210 may transmit a second signal, which is a response signal to the first signal, to the wearable device 102 through the communication circuit. For example, the processor 210 responds to the second signal transmitted from the wearable device, and at a first time T1 when the first signal is transmitted from the wearable device 102, the second signal is transmitted from the wearable device 102. A signal comprising data for a second time (T2) received by the device (102) and a third time (T3) at which the signal is transmitted from the wearable device (103) can be received through the communication circuit. there is.
  • T2 second time
  • T3 third time
  • the processor 210 operates at a first time (T1), a second time (T2), a third time (T3), and a fourth time (T4) at which the first signal is received by the electronic device 101. , the electronic device 101 and the wearable device based on the fifth time (T5) at which the second signal was transmitted from the electronic device 101, and the sixth time (T6) at which the signal was received by the electronic device 101.
  • T1 a first time
  • T2 a second time
  • T3 a third time
  • T4 time T4 at which the first signal is received by the electronic device 101.
  • T5 fifth time
  • T6 sixth time
  • the processor 210 may receive the first signal transmitted from the wearable device 102 in response to movement of the wearable device 102.
  • the processor 210 based on the signal indicating a third reference position relationship that is different from the first reference position relationship and the second reference position relationship among the plurality of reference position relationships, the at least one By stopping displaying the first container and a portion of the at least one second container, the display 220 may display another portion of the at least one second container within the web page.
  • the first reference position relationship may be such that the distance between the electronic device and the wearable device is less than the reference distance and the angle between the reference direction and the direction from the electronic device to the wearable device is within the reference angle range. It can indicate that there is.
  • the second reference position relationship may indicate that the distance is less than the reference distance and the angle is outside the reference angle range.
  • the third reference position relationship may indicate that the distance is greater than or equal to the reference distance.
  • the processor 210 may, while the plurality of containers are displayed within the webpage, transmit, through the communication circuitry, from another wearable device worn by the user and paired with the wearable device. , other signals indicating the positional relationship between the electronic device and the other wearable device may be received. For example, processor 210 may maintain display of the plurality of containers based on identifying that the signal and the other signal represent the first reference position relationship. For example, the processor 210 may display the at least one second container among the plurality of containers based on identifying that the signal and the other signal represent the second reference position relationship. .
  • the signal may be obtained through a camera of the wearable device.
  • the signal may include information about an image including a visual object corresponding to the display displaying the web page including the plurality of containers.
  • the positional relationship may be identified based on the location and size of the visual object within the image.
  • Figure 15 is a flowchart showing a method of adaptively displaying a web page based on an image acquired through a camera. The method may be executed by the electronic device 101 or the processor 210.
  • a plurality of containers each including at least one visual object may be displayed within a web page through the display 220.
  • the web page including the plurality of containers may correspond to a web page displayed based on the first expression 1101 of FIG. 11.
  • the processor 210 may obtain an image of the user positioned in front of the display 220 through the camera 240 while the plurality of containers are displayed within the web page.
  • the image may correspond to image 1001, image 1021, or image 1041.
  • processor 210 may identify whether the image has a size less than the reference size and represents a user located outside the reference area. For example, processor 210 may execute operation 1509 on the condition that the image has a size less than the reference size and represents a user located outside the reference area, and may execute operation 1507 otherwise. For example, the processor 210 may execute operation 1507 based on the image 1001 and execute operation 1509 based on the image 1021 or image 1041.
  • processor 210 maintains displaying the plurality of containers within the webpage based on the image representing the user having a size greater than or equal to a reference size and located within a reference area. You can.
  • processor 210 displays at least one first container of the plurality of containers based on the image representing the user with a size less than the reference size and located outside the reference area.
  • processor 210 displays at least one second container that is different from the at least one first container among the plurality of containers within the web page.
  • the web page including the at least one second container may correspond to a web page displayed based on the second representation 1132 or the third representation 1163 of FIG. 11 .
  • FIG. 16 is a block diagram of an electronic device 1601 in a network environment 1600, according to various embodiments.
  • the electronic device 1601 communicates with the electronic device 1602 through a first network 1698 (e.g., a short-range wireless communication network) or a second network 1699. It is possible to communicate with at least one of the electronic device 1604 or the server 1608 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 1601 may communicate with the electronic device 1604 through the server 1608.
  • a first network 1698 e.g., a short-range wireless communication network
  • a second network 1699 e.g., a second network 1699.
  • the electronic device 1601 may communicate with the electronic device 1604 through the server 1608.
  • the electronic device 1601 includes a processor 1620, a memory 1630, an input module 1650, an audio output module 1655, a display module 1660, an audio module 1670, and a sensor module ( 1676), interface (1677), connection terminal (1678), haptic module (1679), camera module (1680), power management module (1688), battery (1689), communication module (1690), subscriber identification module (1696) , or may include an antenna module 1697.
  • a sensor module 1676
  • at least one of these components eg, the connection terminal 1678
  • may be omitted, or one or more other components may be added to the electronic device 1601.
  • some of these components e.g., sensor module 1676, camera module 1680, or antenna module 1697
  • are integrated into one component e.g., display module 1660
  • the processor 1620 executes software (e.g., program 1640) to operate at least one other component (e.g., hardware or software component) of the electronic device 1601 connected to the processor 1620. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of the data processing or computation, the processor 1620 stores instructions or data received from another component (e.g., the sensor module 1676 or the communication module 1690) in the volatile memory 1632. The commands or data stored in the volatile memory 1632 can be processed, and the resulting data can be stored in the non-volatile memory 1634.
  • software e.g., program 1640
  • the processor 1620 stores instructions or data received from another component (e.g., the sensor module 1676 or the communication module 1690) in the volatile memory 1632.
  • the commands or data stored in the volatile memory 1632 can be processed, and the resulting data can be stored in the non-volatile memory 1634.
  • the processor 1620 may include a main processor 1621 (e.g., a central processing unit or an application processor) or an auxiliary processor 1623 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 1621 e.g., a central processing unit or an application processor
  • auxiliary processor 1623 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 1601 includes a main processor 1621 and a auxiliary processor 1623
  • the auxiliary processor 1623 may be set to use lower power than the main processor 1621 or be specialized for a designated function. You can.
  • the auxiliary processor 1623 may be implemented separately from the main processor 1621 or as part of it.
  • the auxiliary processor 1623 may, for example, act on behalf of the main processor 1621 while the main processor 1621 is in an inactive (e.g., sleep) state, or while the main processor 1621 is in an active (e.g., application execution) state. ), together with the main processor 1621, at least one of the components of the electronic device 1601 (e.g., the display module 1660, the sensor module 1676, or the communication module 1690) At least some of the functions or states related to can be controlled.
  • coprocessor 1623 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 1680 or communication module 1690. there is.
  • the auxiliary processor 1623 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. This learning may be performed, for example, in the electronic device 1601 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 1608). Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 1630 may store various data used by at least one component (eg, the processor 1620 or the sensor module 1676) of the electronic device 1601. Data may include, for example, input data or output data for software (e.g., program 1640) and instructions related thereto.
  • Memory 1630 may include volatile memory 1632 or non-volatile memory 1634.
  • the program 1640 may be stored as software in the memory 1630 and may include, for example, an operating system 1642, middleware 1644, or application 1646.
  • the input module 1650 may receive commands or data to be used in a component of the electronic device 1601 (e.g., the processor 1620) from outside the electronic device 1601 (e.g., a user).
  • the input module 1650 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 1655 may output sound signals to the outside of the electronic device 1601.
  • the sound output module 1655 may include, for example, a speaker or receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 1660 can visually provide information to the outside of the electronic device 1601 (eg, a user).
  • the display module 1660 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 1660 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 1670 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 1670 acquires sound through the input module 1650, the sound output module 1655, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 1601). Sound may be output through an electronic device 1602 (e.g., speaker or headphone).
  • an electronic device 1602 e.g., speaker or headphone
  • the sensor module 1676 detects the operating state (e.g., power or temperature) of the electronic device 1601 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 1676 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 1677 may support one or more designated protocols that can be used to connect the electronic device 1601 directly or wirelessly with an external electronic device (e.g., the electronic device 1602).
  • the interface 1677 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 1678 may include a connector through which the electronic device 1601 can be physically connected to an external electronic device (eg, the electronic device 1602).
  • the connection terminal 1678 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 1679 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 1679 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 1680 can capture still images and moving images.
  • the camera module 1680 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 1688 can manage power supplied to the electronic device 1601. According to one embodiment, the power management module 1688 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • Battery 1689 may supply power to at least one component of electronic device 1601.
  • the battery 1689 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 1690 provides a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device 1601 and an external electronic device (e.g., the electronic device 1602, the electronic device 1604, or the server 1608). It can support establishment and communication through established communication channels.
  • Communication module 1690 operates independently of processor 1620 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • the communication module 1690 may be a wireless communication module 1692 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1694 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 1692 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • a wired communication module 1694 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 1698 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 1699 (e.g., legacy It may communicate with an external electronic device 1604 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 1692 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 1696 to communicate within a communication network, such as the first network 1698 or the second network 1699.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 1692 may support 5G networks and next-generation communication technologies after 4G networks, for example, new radio access technology (NR access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low latency
  • -latency communications can be supported.
  • the wireless communication module 1692 may support high frequency bands (e.g., mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 1692 uses various technologies to secure performance in high frequency bands, such as beamforming, massive MIMO (multiple-input and multiple-output), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 1692 may support various requirements specified in the electronic device 1601, an external electronic device (e.g., electronic device 1604), or a network system (e.g., second network 1699).
  • the wireless communication module 1692 supports peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 1697 may transmit or receive signals or power to or from the outside (e.g., an external electronic device).
  • the antenna module 1697 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 1697 may include a plurality of antennas (eg, an array antenna).
  • at least one antenna suitable for the communication method used in the communication network such as the first network 1698 or the second network 1699, is connected to the plurality of antennas by, for example, the communication module 1690.
  • the communication module 1690 can be selected Signals or power may be transmitted or received between the communication module 1690 and an external electronic device through the selected at least one antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 1697.
  • RFIC radio frequency integrated circuit
  • antenna module 1697 may form a mmWave antenna module.
  • a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 1601 and the external electronic device 1604 through the server 1608 connected to the second network 1699.
  • Each of the external electronic devices 1602 or 1604 may be of the same or different type as the electronic device 1601.
  • all or part of the operations performed in the electronic device 1601 may be executed in one or more of the external electronic devices 1602, 1604, or 1608.
  • the electronic device 1601 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 1601.
  • the electronic device 1601 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 1601 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 1604 may include an Internet of Things (IoT) device.
  • Server 1608 may be an intelligent server using machine learning and/or neural networks.
  • an external electronic device 1604 or a server 1608 may be included in the second network 1699.
  • the electronic device 1601 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 1636 or external memory 1638) that can be read by a machine (e.g., electronic device 1601). It may be implemented as software (e.g., program 1640) including these.
  • a processor e.g., processor 1620 of a device (e.g., electronic device 1601) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called.
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치(electronic device)(101)는, 웨어러블 장치(102)와의 복수의 기준 위치 관계들 중 제2 기준 위치 관계를 나타내는 신호에 기반하여, 디스플레이(220)를 통해 웹페이지 내에서 표시되는 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시하도록 구성되는 프로세서를 포함한다.

Description

웹페이지를 적응적으로 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
아래의 설명들은, 웹페이지(webpage)를 적응적으로 표시하는 전자 장치(electronic device), 방법, 및 비일시적 컴퓨터 판독가능 저장 매체(non-transitory computer readable storage medium)에 관한 것이다.
전자 장치(electronic device)는, 웹페이지를 표시할 수 있다. 예를 들면, 상기 웹페이지는, 마크업 언어(markup language)에 기반하여 표시될 수 있다. 예를 들면, 상기 마크업 언어는, HTML(hypertext markup language) 및/또는 XML(Extensible markup language)을 포함할 수 있다. 예를 들면, 상기 마크업 언어는, 시각적 객체를 각각 포함하는 컨테이너(container)들을 포함할 수 있다. 예를 들면, 상기 컨테이너들 각각은, 상기 웹페이지의 레이아웃(layout)을 형성하기 위한 태그일 수 있다. 예를 들면, 상기 컨테이너들 각각은, 상기 웹페이지 내의 시각적 객체들의 배치(arrangement)를 위해 상기 웹페이지 내에 포함될 수 있다.
전자 장치(electronic device)가 제공된다. 상기 전자 장치는, 통신 회로를 포함할 수 있다. 상기 전자 장치는, 디스플레이를 포함할 수 있다. 상기 전자 장치는, 상기 통신 회로 및 상기 디스플레이와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너(container)들을 표시하도록 구성될 수 있다. 상기 프로세서는, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 사용자에 의해 착용된 상기 웨어러블 장치로부터 상기 통신 회로를 통해, 상기 전자 장치와 상기 웨어러블 장치 사이의 위치 관계를 나타내는 신호를 수신하도록 구성될 수 있다. 상기 프로세서는, 상기 전자 장치 내에 등록된 복수의 기준 위치 관계들 중 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 디스플레이를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지하도록 구성될 수 있다. 상기 프로세서는, 상기 복수의 기준 위치 관계들 중 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 상기 디스플레이를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시하도록, 구성될 수 있다.
방법이 제공된다. 상기 방법은, 통신 회로 및 디스플레이를 포함하는 전자 장치 내에서 실행될 수 있다. 상기 방법은, 상기 디스플레이를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너(container)들을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 사용자에 의해 착용된 상기 웨어러블 장치로부터 상기 통신 회로를 통해, 상기 전자 장치와 상기 웨어러블 장치 사이의 위치 관계를 나타내는 신호를 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 전자 장치 내에 등록된 복수의 기준 위치 관계들 중 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 디스플레이를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 기준 위치 관계들 중 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 상기 디스플레이를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시하는 동작을 포함할 수 있다.
비일시적 컴퓨터 판독가능 저장 매체가 제공된다. 상기 비일시적 컴퓨터 판독가능 저장 매체는, 하나 이상의 프로그램들을 저장할 수 있다. 상기 하나 이상의 프로그램들은, 통신 회로 및 디스플레이를 포함하는 전자 장치의 프로세서에 의해 실행될 시, 상기 디스플레이를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너(container)들을 표시하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 사용자에 의해 착용된 상기 웨어러블 장치로부터 상기 통신 회로를 통해, 상기 전자 장치와 상기 웨어러블 장치 사이의 위치 관계를 나타내는 신호를 수신하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 전자 장치 내에 등록된 복수의 기준 위치 관계들 중 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 디스플레이를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 복수의 기준 위치 관계들 중 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 상기 디스플레이를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다.
전자 장치가 제공된다. 상기 전자 장치는, 디스플레이를 포함할 수 있다. 상기 전자 장치는, 상기 디스플레이가 향하는 방향에 대응하는 방향을 향하는 카메라를 포함할 수 있다. 상기 전자 장치는, 상기 카메라 및 상기 디스플레이와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너(container)들을 표시하도록 구성될 수 있다. 상기 프로세서는, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 상기 카메라를 통해 상기 디스플레이 앞에 위치된 사용자에 대한 이미지를 획득하도록 구성될 수 있다. 상기 프로세서는, 기준 사이즈 이상의 사이즈를 가지고 기준 영역 안에 위치된 상기 사용자를 표현하는(represent) 상기 이미지에 기반하여, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지하도록 구성될 수 있다. 상기 프로세서는, 상기 기준 사이즈 미만의 사이즈를 가지고 상기 기준 영역 밖에 위치된 상기 사용자를 표현하는 상기 이미지에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 상기 디스플레이를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시하도록 구성될 수 있다.
방법이 제공된다. 상기 방법은, 디스플레이 및 상기 디스플레이가 향하는 방향에 대응하는 방향을 향하는 카메라를 포함하는 전자 장치 내에서 실행될 수 있다. 상기 방법은, 상기 디스플레이를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너(container)들을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 상기 카메라를 통해 상기 디스플레이 앞에 위치된 사용자에 대한 이미지를 획득하는 동작을 포함할 수 있다. 상기 방법은, 기준 사이즈 이상의 사이즈를 가지고 기준 영역 안에 위치된 상기 사용자를 표현하는(represent) 상기 이미지에 기반하여, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지하는 동작을 포함할 수 있다. 상기 방법은, 상기 기준 사이즈 미만의 사이즈를 가지고 상기 기준 영역 밖에 위치된 상기 사용자를 표현하는 상기 이미지에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 상기 디스플레이를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시하는 동작을 포함할 수 있다.
비일시적 컴퓨터 판독가능 저장 매체가 제공된다. 상기 비일시적 컴퓨터 판독가능 저장 매체는, 하나 이상의 프로그램들을 저장할 수 있다. 상기 하나 이상의 프로그램들은, 디스플레이 및 상기 디스플레이가 향하는 방향에 대응하는 방향을 향하는 카메라를 포함하는 전자 장치의 프로세서에 의해 실행될 시, 상기 디스플레이를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너(container)들을 표시하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 상기 카메라를 통해 상기 디스플레이 앞에 위치된 사용자에 대한 이미지를 획득하도록 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 기준 사이즈 이상의 사이즈를 가지고 기준 영역 안에 위치된 상기 사용자를 표현하는(represent) 상기 이미지에 기반하여, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지하도록 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 기준 사이즈 미만의 사이즈를 가지고 상기 기준 영역 밖에 위치된 상기 사용자를 표현하는 상기 이미지에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 상기 디스플레이를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다.
도 1은 예시적인 전자 장치 및 웨어러블 장치를 포함하는 환경의 예를 도시한다.
도 2는 예시적인(exemplary) 전자 장치의 간소화된 블록도이다.
도 3은 예시적인 웨어러블 장치의 간소화된 블록도이다.
도 4는 복수의 기준 위치 관계들의 예를 도시한다.
도 5a는 UWB(ultra wideband 또는 ultra-wide band)를 통한 포지셔닝(positioning)의 예를 도시한다.
도 5b는 UWB를 통한 웨어러블 장치들의 쌍과의 통신에 기반된 포지셔닝의 예를 도시한다.
도 5c는 UWB를 통해 방위각 및/또는 고도각을 식별하는 예를 도시한다.
도 6은 웨어러블 장치의 이동에 따른 UWB를 통한 포지셔닝의 예를 도시한다.
도 7은 웨어러블 장치의 이동에 대한 정보를 이용하여 UWB를 통한 포지셔닝을 보조하는(assist) 예를 도시한다.
도 8은 전자 장치와 구별되는 다른 전자 장치를 이용하여 실행되는 UWB를 통한 포지셔닝의 예를 도시한다.
도 9는 웨어러블 장치의 카메라를 통해 이미지를 획득하는 예를 도시한다.
도 10은 전자 장치의 카메라를 통해 이미지를 획득하는 예를 도시한다.
도 11은 웹페이지의 복수의 표현들의 예를 도시한다.
도 12는 웨어러블 장치의 자세의 예를 도시한다.
도 13은 웨어러블 장치의 자세의 변경에 따라 변경된 위치에서 웹페이지와 함께 표시되는 실행가능한 객체의 예를 도시한다.
도 14는 웨어러블 장치로부터 수신된 신호에 기반하여 웹페이지를 적응적으로 표시하는 방법을 도시하는 흐름도이다.
도 15는 카메라를 통해 획득된 이미지에 기반하여 웹페이지를 적응적으로 표시하는 방법을 도시하는 흐름도이다.
도 16은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 1은 예시적인 전자 장치 및 웨어러블 장치를 포함하는 환경의 예를 도시한다.
도 1을 참조하면, 환경(100)은, 전자 장치(101) 및 웨어러블 장치(102)를 포함할 수 있다.
예를 들면, 전자 장치(101)는, 웹페이지(webpage)(110)를 표시할 수 있는 장치일 수 있다. 예를 들면, 전자 장치(101)는, 디스플레이를 포함하는 바 타입의 장치이거나, 폴더블 디스플레이를 포함하는 폴더블 타입의 장치일 수 있다. 도 1 내에서 도시되지 않았으나, 전자 장치(101)는, 롤러블 디스플레이를 포함하는 롤러블 타입의 장치일 수도 있다.
예를 들면, 전자 장치(101)는, 사용자(120)로부터 이격된 상태 내에서 웹페이지(110)를 표시할 수 있다. 예를 들면, 전자 장치(101)는, 사용자(120)에 의해 그립되지 않은 상태 내에서 웹페이지(110)를 표시할 수 있다. 예를 들면, 전자 장치(101)는, 사용자(120)에 의해 홀드되지 않은 상태 내에서 웹페이지(110)를 표시할 수 있다. 예를 들면, 사용자(120)로부터 이격된 전자 장치(101)는 거치 상태(stationary state) 내에 있는 반면, 사용자(120)는, 웹페이지(110)가 전자 장치(101)를 통해 표시되는 동안, 이동할 수 있다. 예를 들면, 웹페이지(110)가 표시되는 동안, 전자 장치(101)와 사용자(120) 사이의 위치 관계는 사용자(120)의 상기 이동에 따라 변경될 수 있다. 웹페이지(110)의 표현(representation)이 사용자(120)의 상기 이동과 독립적으로 유지될 시, 상기 위치 관계의 상기 변경은, 웹페이지(110)를 통한 서비스의 품질을 감소시킬 수 있다. 예를 들면, 사용자(120)의 상기 이동과 독립적으로 유지되는 웹페이지(110)의 시인성은, 상기 위치 관계의 상기 변경에 따라 감소될 수 있다.
예를 들면, 위치(131)와 전자 장치(101) 사이의 거리는 위치(132)와 전자 장치(101) 사이의 거리와 다르기 때문에, 위치(131)에서의 사용자(120)를 위해 적합한(suitable for) 웹페이지(110)의 표현은, 위치(132)에서의 사용자(120)를 위해 적합한 웹페이지(110)의 표현과 다를 수 있다. 예를 들면, 위치(132)에서의 사용자(120)로부터 전자 장치(101)로의 방향(141)은 위치(133)에서의 사용자(120)로부터 전자 장치(101)로의 방향(142)과 다르기 때문에, 위치(132)에서의 사용자(120)를 위해 적합한 웹페이지(110)의 표현은 위치(133)에서의 사용자(120)를 위해 적합한 웹페이지(110)의 표현과 다를 수 있다. 예를 들면, 전자 장치(101)는, 웹페이지(110)의 표시와 관련하여 강화된 품질의 서비스를 제공하기 위해, 사용자(120)의 위치를 식별하고, 상기 식별된 위치에 기반하여 웹페이지(110)의 표현 또는 표시를 변경할 수 있다.
예를 들면, 전자 장치(101)는, 사용자(120)에 의해 착용된 웨어러블 장치(102)로부터 수신된 정보에 기반하여, 사용자(120)의 상기 위치를 식별할 수 있다. 예를 들면, 웨어러블 장치(102)는, 2개 이상의 장치들의 쌍일 수 있다. 예를 들면, 웨어러블 장치(102)는, 이어버즈(earbuds)일 수 있다. 예를 들면, 웨어러블 장치(102)는, AR(augmented glass) 글라스(glass)와 같은 단일 웨어러블 장치일 수도 있다.
예를 들면, 전자 장치(101)는, 웨어러블 장치(102)에 대하여 독립된 상태(standalone state) 내에서, 전자 장치(101)의 구성요소를 이용하여 사용자(120)의 상기 위치를 식별할 수 있다.
예를 들면, 전자 장치(101)는, 상기 위치를 식별하기 위한 적어도 하나의 구성요소를 포함할 수 있다. 예를 들면, 전자 장치(101)는, 웹페이지(110)를 표시하기 위한 적어도 하나의 구성요소를 포함할 수 있다. 예를 들면, 웨어러블 장치(102)는, 상기 위치를 식별하기 위한 적어도 하나의 구성요소를 포함할 수 있다. 전자 장치(101) 내에 포함된 구성요소들 및 웨어러블 장치(102) 내에 포함된 구성요소들은, 도 2 및 도 3을 통해 예시될 수 있다.
도 2는 예시적인(exemplary) 전자 장치의 간소화된 블록도이다.
도 2를 참조하면, 전자 장치(101)는, 프로세서(210), 디스플레이(220), 및 적어도 하나의 통신 회로(230)를 포함할 수 있다. 예를 들면, 전자 장치(101)는, 카메라(240)를 더(further) 포함하거나 대안적으로(alternatively) 포함할 수 있다. 예를 들면, 전자 장치(101)는, 적어도 하나의 센서(250)를 더(further) 포함하거나 대안적으로 포함할 수 있다.
예를 들면, 전자 장치(101)는, 도 16의 전자 장치(1601)의 적어도 일부를 포함할 수 있다. 예를 들면, 프로세서(210)는, 도 16의 프로세서(1620)의 적어도 일부를 포함할 수 있다. 예를 들면, 디스플레이(220)는, 도 16의 디스플레이 모듈(1860)의 적어도 일부를 포함할 수 있다. 예를 들면, 적어도 하나의 통신 회로(230)는, 도 16의 무선 통신 모듈(1692)의 적어도 일부를 포함할 수 있다. 예를 들면, 카메라(240)는, 도 16의 카메라 모듈(1680)의 적어도 일부를 포함할 수 있다. 예를 들면, 적어도 하나의 센서(250)는, 도 16의 센서 모듈(1676)의 적어도 일부를 포함할 수 있다.
예를 들면, 프로세서(210)는, 아래에서 예시될 전자 장치(101)의 동작들을 실행하도록 구성될 수 있다. 예를 들면, 프로세서(210)는, 상기 동작들을 위해, 디스플레이(220), 적어도 하나의 통신 회로(230), 카메라(240), 및/또는 적어도 하나의 센서(250)를 제어할 수 있다. 예를 들면, 프로세서(210)는, 디스플레이(220), 적어도 하나의 통신 회로(230), 카메라(240), 및/또는 적어도 하나의 센서(250)와 작동적으로(operatively 또는 operably) 결합될 수 있다. 예를 들면, 프로세서(210)와 전자 장치(101)의 구성요소가 작동적으로 결합됨은, 상기 구성요소를 제어하기 위해 프로세서(210)가 상기 구성요소에 직접적으로 연결됨을 나타낼 수 있다. 예를 들면, 프로세서(210)와 상기 구성요소가 작동적으로 결합됨은 상기 구성요소를 제어하기 위해 프로세서(210)가 전자 장치(101)의 다른 구성요소를 통해 상기 구성요소에 연결됨을 나타낼 수 있다.
예를 들면, 디스플레이(220)는, 웹페이지(예: 도 1의 웹페이지(110))를 표시하기 위해 이용될 수 있다. 예를 들면, 디스플레이(220)는, 변형가능하거나(deformable) 플렉서블할 수 있다. 예를 들면, 디스플레이(220)는, 표시 영역이 실질적으로 하나의 방향을 향하는 제1 상태 및 상기 표시 영역의 일부와 상기 표시 영역의 다른 일부가 서로 다른 방향을 향하는 제2 상태를 제공하는 폴더블 디스플레이일 수 있다. 예를 들면, 디스플레이(220)는, 표시 영역의 일부가 전자 장치(101)의 하우징 안으로 이동할 수 있는 롤러블 디스플레이일 수 있다.
예를 들면, 적어도 하나의 통신 회로(230)는, 사용자(예: 도 1의 사용자(120))의 위치를 식별하기 위해 이용될 수 있다. 예를 들면, 적어도 하나의 통신 회로(230)는, 상기 사용자에 의해 착용된 웨어러블 장치(102)의 위치를 식별하기 위해 이용될 수 있다. 예를 들면, 적어도 하나의 통신 회로(230)는, UWB(ultra wideband 또는 ultra-wide band)를 통한 웨어러블 장치(102)와의 통신을 위한 통신 회로를 포함할 수 있다. 예를 들면, 적어도 하나의 통신 회로(230)는, 상기 사용자의 상기 위치를 식별하기 위한 정보(예: 아래에서 예시될 이미지에 대한 정보)를 수신하기 위해 이용되고, 상기 통신 회로와 구별되는, 다른(another) 통신 회로를 포함할 수 있다. 예를 들면, 상기 다른 통신 회로는, 블루투스 레거시 및/또는 BLE(Bluetooth low energy)를 통한 웨어러블 장치(102)와의 통신을 위한 회로일 수 있다.
예를 들면, 적어도 하나의 통신 회로(230)는, 웹페이지(예: 도 1의 웹페이지(110))를 표시하기 위한 정보를 수신하기 위한 회로를 포함할 수 있다.
예를 들면, 카메라(240)는, 사용자(예: 도 1의 사용자(120))의 위치를 식별하기 위해 이용될 수 있다. 예를 들면, 카메라(240)는, 디스플레이(220)가 향하는 방향에 대응하는 방향을 향할 수 있다. 예를 들면, 카메라(240)는, 디스플레이(220)의 표시 영역 아래에 배치될 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 카메라(240)는, 디스플레이(220)의 표시 영역을 감싸는 베젤 영역의 일부를 통해 노출될 수도 있다.
예를 들면, 적어도 하나의 센서(250)는, 전자 장치(101)의 상태 및/또는 전자 장치(101) 주변의 환경(예: 도 1의 환경(100))의 상태를 식별하기 위해 이용될 수 있다.
도 3은 예시적인 웨어러블 장치의 간소화된 블록도이다.
도 3을 참조하면, 웨어러블 장치(102)는, 프로세서(310), 적어도 하나의 통신 회로(320), 및 적어도 하나의 센서(330)를 포함할 수 있다. 도 3 내에서 도시되지 않았으나, 웨어러블 장치(102)는, 스피커, 마이크로폰, 및/또는 디스플레이를 더 포함하거나, 대안적으로 포함할 수 있다.
예를 들면, 웨어러블 장치(102)는, 도 16의 전자 장치(102)의 적어도 일부를 포함할 수 있다.
예를 들면, 프로세서(310)는, 아래에서 예시될 웨어러블 장치(102)의 동작들을 실행하도록 구성될 수 있다. 예를 들면, 프로세서(310)는, 상기 동작들을 위해, 적어도 하나의 통신 회로(320) 및/또는 적어도 하나의 센서(330)를 제어할 수 있다. 예를 들면, 프로세서(310)는, 적어도 하나의 통신 회로(320) 및/또는 적어도 하나의 센서(330)와 작동적으로(operatively 또는 operably) 결합될 수 있다.
예를 들면, 적어도 하나의 통신 회로(320)는, 사용자(예: 도 1의 사용자(120))의 위치를 식별하기 위해 이용될 수 있다. 예를 들면, 적어도 하나의 통신 회로(320)는, UWB를 통한 전자 장치(101)와의 통신을 위한 통신 회로를 포함할 수 있다. 예를 들면, 적어도 하나의 통신 회로(230)는, 상기 사용자의 상기 위치를 식별하기 위한 정보(예: 아래에서 예시될 이미지에 대한 정보)를 수신하기 위해 이용되고, 상기 통신 회로와 구별되는, 다른 통신 회로를 포함할 수 있다. 예를 들면, 상기 다른 통신 회로는, 블루투스 레거시 및/또는 BLE(Bluetooth low energy)를 통한 전자 장치(101)와의 통신을 위한 회로일 수 있다.
예를 들면, 적어도 하나의 센서(330)는, 웨어러블 장치(102)의 상태 및/또는 웨어러블 장치(102) 주변의 환경(예: 도 1의 환경(100))의 상태를 식별하기 위해 이용될 수 있다. 예를 들면, 적어도 하나의 센서(330)는, 웨어러블 장치(102)의 이동을 식별하기 위한 회로를 포함할 수 있다. 예를 들면, 적어도 하나의 센서(330)는, 웨어러블 장치(102)의 자세(또는 오리엔테이션)를 식별하기 위한 회로를 포함할 수 있다. 예를 들면, 적어도 하나의 센서(330)는, 가속도 센서, 자이로 센서, 및/또는 계보기(pedomemter)를 포함할 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 2를 참조하면, 프로세서(210)는, 복수의 기준 위치 관계들을 이용하여, 사용자(예: 도 1의 사용자(120))의 위치를 식별할 수 있다. 예를 들면, 상기 복수의 기준 위치 관계들 각각은, 전자 장치(101) 주변의 영역을 분할한 복수의 부분 영역들 각각을 나타낼 수 있다. 예를 들면, 상기 복수의 기준 위치 관계들 각각은, 전자 장치(101)의 위치를 기준으로 정의된 복수의 부분 영역들 각각을 나타낼 수 있다. 예를 들면, 상기 복수의 기준 위치 관계들은, 디스플레이(220)를 통해 표시되는 웹페이지(예: 도 1의 웹페이지(110))의 표현(representation)을 변경하기 위해, 전자 장치(101) 내에 저장될 수 있다. 예를 들면, 상기 사용자의 상기 위치(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)의 위치)와 전자 장치(101)의 사이의 위치 관계가 상기 복수의 기준 위치 관계들 중 제1 기준 위치 관계일 시 상기 사용자를 위해 적합한 상기 웹페이지의 상기 표현은, 상기 위치 관계가 상기 복수의 기준 위치 관계들 중 상기 제1 기준 위치 관계와 다른 제2 기준 위치 관계일 시 상기 사용자를 위해 적합한 상기 웹페이지의 상기 표현과 다를 수 있다. 예를 들면, 상기 복수의 기준 위치 관계들은, 상기 웹페이지의 복수의 표현들에 각각 대응할 수 있다. 예를 들면, 상기 제1 기준 위치 관계는 상기 웹페이지의 제1 표현에 대응하고, 상기 제2 기준 위치 관계는 상기 웹페이지의 제2 표현에 대응할 수 있다.
예를 들면, 프로세서(210)는, 상기 복수의 기준 위치 관계들 중에서, 전자 장치(101) 및/또는 웨어러블 장치(102)에 의해 식별된, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 위치 관계에 대응하는 기준 위치 관계를 식별하고, 상기 식별된 기준 위치 관계에 대응하는 표현으로 상기 웹페이지를 표시할 수 있다.
전자 장치(101) 내에 등록되거나 저장된 상기 복수의 기준 위치 관계들은, 도 4를 통해 예시될 수 있다.
도 4는 복수의 기준 위치 관계들의 예를 도시한다.
도 4를 참조하면, 제1 사이즈(400)를 가지는 표시 영역을 포함하는 디스플레이(220)를 포함하는 전자 장치(101)는, 복수의 기준 위치 관계들(410)에 대한 정보를 저장할 수 있다. 예를 들면, 복수의 기준 위치 관계들(410)은, 전자 장치(101)로부터의 거리에 기반하여 정의될 수 있다. 예를 들면, 복수의 기준 위치 관계들(410)은, 전자 장치(101)의 디스플레이(220)의 정면을 나타내는 기준선(411)으로부터 형성되는(또는 정의되는) 각도에 기반하여 정의될 수 있다. 예를 들면, 복수의 기준 위치 관계들(410) 중 제1 기준 위치 관계(410-1)는, 전자 장치(101)로부터의 거리가 제1 기준 거리(421) 미만이고 기준선(411)으로부터의 각도가 제1 기준 각도(431) 미만인 위치에서의 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 위치 관계를 나타낼 수 있다. 예를 들면, 복수의 기준 위치 관계들(410) 중 제2 기준 위치 관계(410-2) 및 제3 기준 위치 관계(410-3)는, 상기 거리가 제1 기준 거리(421) 미만이고 상기 각도가 제1 기준 각도(431) 이상 제2 기준 각도(432) 미만인 위치에서의 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 위치 관계를 나타낼 수 있다. 예를 들면, 제2 기준 위치 관계(410-2)는, 기준선(411)을 기준으로 시계 방향으로 제1 기준 각도(431) 이상 제2 기준 각도(432) 미만인 위치에서의 상기 위치 관계를 나타낼 수 있다. 예를 들면, 제3 기준 위치 관계(410-3)는, 기준선(411)을 기준으로 반시계 방향으로 제1 기준 각도(431) 이상 제2 기준 각도(432) 미만인 위치에서의 상기 위치 관계를 나타낼 수 있다. 예를 들면, 복수의 기준 위치 관계들(410) 중 제4 기준 위치 관계(410-4)는, 상기 거리가 제1 기준 거리(421) 이상 제2 기준 거리(422) 미만이고 상기 각도가 제1 기준 각도(431) 미만인 위치에서의 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 위치 관계를 나타낼 수 있다. 예를 들면, 복수의 기준 위치 관계들(410) 중 제5 기준 위치 관계(410-5) 및 제6 기준 위치 관계(410-6)는, 상기 거리가 제1 기준 거리(421) 이상 제2 기준 거리(422) 미만이고 상기 각도가 제1 기준 각도(431) 이상 제2 기준 각도(432) 미만인 위치에서의 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 위치 관계를 나타낼 수 있다. 예를 들면, 제5 기준 위치 관계(410-5)는, 기준선(411)을 기준으로 시계 방향으로 제1 기준 각도(431) 이상 제2 기준 각도(432) 미만인 위치에서의 상기 위치 관계를 나타낼 수 있다. 예를 들면, 제6 기준 위치 관계(410-6)는, 기준선(411)을 기준으로 반시계 방향으로 제1 기준 각도(431) 이상 제2 기준 각도(432) 미만인 위치에서의 상기 위치 관계를 나타낼 수 있다.
예를 들면, 복수의 기준 위치 관계들(410) 중 제7 기준 위치 관계(410-7)는, 상기 거리가 제2 기준 거리(422) 이상 제3 기준 거리(423) 미만이고 상기 각도가 제1 기준 각도(431) 미만인 위치에서의 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 위치 관계를 나타낼 수 있다. 예를 들면, 복수의 기준 위치 관계들(410) 중 제8 기준 위치 관계(410-8) 및 제9 기준 위치 관계(410-9)는, 상기 거리가 제2 기준 거리(422) 이상 제3 기준 거리(423) 미만이고 상기 각도가 제1 기준 각도(431) 이상 제2 기준 각도(432) 미만인 위치에서의 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 위치 관계를 나타낼 수 있다. 예를 들면, 제8 기준 위치 관계(410-8)는, 기준선(411)을 기준으로 시계 방향으로 제1 기준 각도(431) 이상 제2 기준 각도(432) 미만인 위치에서의 상기 위치 관계를 나타낼 수 있다. 예를 들면, 제9 기준 위치 관계(410-9)는, 기준선(411)을 기준으로 반시계 방향으로 제1 기준 각도(431) 이상 제2 기준 각도(432) 미만인 위치에서의 상기 위치 관계를 나타낼 수 있다.
예를 들면, 상기 복수의 기준 위치 관계들에 의해 각각 나타내어지는 상기 복수의 부분 영역들 각각의 사이즈는, 디스플레이(220)의 상기 표시 영역의 사이즈에 따라, 달라질 수 있다.
예를 들면, 제1 사이즈(400)보다 큰 제2 사이즈(450)를 가지는 상기 표시 영역을 포함하는 디스플레이(220)를 포함하는 전자 장치(101)는, 복수의 기준 위치 관계들(460)에 대한 정보를 저장할 수 있다. 예를 들면, 복수의 기준 위치 관계들(460)에 의해 나타내어지는 영역의 사이즈는, 복수의 기준 위치 관계들(410)에 의해 나타내어지는 영역의 사이즈보다 클 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 2를 참조하면, 프로세서(210)는, 상기 복수의 기준 위치 관계들과의 비교를 실행하기 전, 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 위치 관계에 대한 정보를 획득할 수 있다.
예를 들면, 상기 정보는, 다양한 방법들을 통해 획득될 수 있다.
예를 들면, 상기 정보는, UWB를 통한 포지셔닝을 통해 획득될 수 있다. 상기 UWB를 통한 상기 포지셔닝은, 도 5a를 통해 예시될 수 있다.
도 5a는 UWB(ultra wideband 또는 ultra-wide band)를 통한 포지셔닝(positioning)의 예를 도시한다.
도 5a를 통해 예시된 동작들은, 전자 장치(101)(예: 프로세서(210)) 및 웨어러블 장치(102)(예: 프로세서(310))에 의해 실행될 수 있다.
도 5a를 참조하면, 동작 501에서, 웨어러블 장치(102)는, 적어도 하나의 통신 회로(320)(예: UWB를 통한 통신을 위한 통신 회로)를 통해, 제1 신호를 전자 장치(101)에게 송신할 수 있다. 예를 들면, 상기 제1 신호는, 폴 메시지(poll message)로 참조될 수 있다. 예를 들면, 웨어러블 장치(102)는, 웨어러블 장치(102) 내에 인식된 전자 장치(101)의 주소 정보에 기반하여, 상기 제1 신호를 송신할 수 있다. 예를 들면, 웨어러블 장치(102)는, 상기 제1 신호가 제1 시각(T1)을 기록하거나(record) 저장할 수 있다.
예를 들면, 전자 장치(101)는, 적어도 하나의 통신 회로(230)(예: UWB를 통한 통신을 위한 통신 회로)를 통해 상기 제1 신호를 수신할 수 있다. 예를 들면, 전자 장치(101)는, 상기 제1 신호가 수신된 제4 시각(T4)을 기록하거나 저장할 수 있다.
동작 503에서, 전자 장치(101)는, 상기 제1 신호에 응답하여, 제2 신호를 적어도 하나의 통신 회로(230)를 통해 웨어러블 장치(102)에게 송신할 수 있다. 예를 들면, 상기 제2 신호는, 상기 제1 신호에 대한 응답 신호일 수 있다. 예를 들면, 상기 제2 신호는, 응답 메시지(response message)로 참조될 수 있다. 예를 들면, 전자 장치(101)는, 상기 제2 신호가 송신된 제5 시각(T5)를 기록하거나 저장할 수 있다.
예를 들면, 웨어러블 장치(102)는, 상기 제2 신호를 적어도 하나의 통신 회로(320)를 통해 수신할 수 있다. 예를 들면, 웨어러블 장치(102)는, 상기 제2 신호가 수신된 제2 시각(T2)를 기록하거나 저장할 수 있다.
동작 505에서, 웨어러블 장치(102)는, 상기 제2 신호에 기반하여, 제3 신호를 적어도 하나의 통신 회로(320)를 통해 전자 장치(101)에게 송신할 수 있다. 예를 들면, 상기 제3 신호는, 제1 시각(T1), 제2 시각(T2), 및 상기 제3 신호를 송신한 제3 시각(T3)에 대한 데이터를 포함할 수 있다. 예를 들면, 제1 시각(T1), 제2 시각(T2), 및 제3 시각(T3)은, 전자 장치(101)와 웨어러블 장치(102) 사이의 거리를 식별하기 위해, 상기 제3 신호 내에 포함될 수 있다.
예를 들면, 전자 장치(101)는, 상기 제3 신호를 적어도 하나의 통신 회로(230)를 통해 수신할 수 있다. 예를 들면, 전자 장치(101)는, 상기 제3 신호가 수신된 제6 시각(T6)을 기록하거나 저장할 수 있다.
동작 507에서, 전자 장치(101)는, 상기 제3 신호에 응답하여, 제1 시각(T1), 제2 시각(T2), 제3 시각(T3), 제4 시각(T4), 제5 시각(T5), 및 제6 시각(T6)에 기반하여, 전자 장치(101)와 웨어러블 장치(102) 사이의 거리를 식별할 수 있다. 예를 들면, 전자 장치(101)는, 아래의 수학식 1에 제1 시각(T1), 제2 시각(T2), 제3 시각(T3), 제4 시각(T4), 제5 시각(T5), 및 제6 시각(T6)을 적용하는 것에 기반하여, 상기 거리를 식별할 수 있다.
Figure PCTKR2023012610-appb-img-000001
수학식 1에서, ToF(time of flight)는 전자 장치(101)로부터의 신호가 웨어러블 장치(102)에게 도달할 때까지의 시간(또는 웨어러블 장치(102)로부터의 신호가 전자 장치(101)에게 도달할 때까지의 시간)을 나타낼 수 있다.
예를 들면, 전자 장치(101)는, 아래의 수학식 2와 같이, 수학식 1을 통해 획득된 ToF에 빛의 속도를 적용하는 것에 기반하여, 상기 거리를 식별할 수 있다.
Figure PCTKR2023012610-appb-img-000002
수학식 2에서, D는 상기 거리를 나타내고, c는 빛의 속도를 나타낼 수 있다.
예를 들면, 전자 장치(101)는, 상기 식별된 거리에 대한 정보를, 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 상기 위치 관계에 대한 상기 정보로, 획득할 수 있다.
예를 들어, 웨어러블 장치(102)가 2개 이상의 장치들의 쌍인 경우, 전자 장치(101)는, 상기 2개 이상의 장치들 각각과 도 5a를 통해 예시된 동작들을 실행함으로써, 상기 2개 이상의 장치들 각각과 전자 장치(101) 사이의 거리를 식별할 수 있다. 상기 거리의 상기 식별은, 도 5b를 통해 예시될 수 있다.
도 5b는 UWB를 통한 웨어러블 장치들의 쌍과의 통신에 기반된 포지셔닝의 예를 도시한다.
도 5b를 참조하면, 웨어러블 장치(102)는, 제1 웨어러블 장치(102-1) 및 제2 웨어러블 장치(102-2)의 쌍일 수 있다.
예를 들면, 전자 장치(101)는, 제1 웨어러블 장치(102-1)와, 도 5a를 통해 예시된 동작들을 실행하는 것에 기반하여, 제1 웨어러블 장치(102-1)와 전자 장치(101) 사이의 거리 D1을 식별할 수 있다.
예를 들면, 전자 장치(101)는, 제2 웨어러블 장치(102-2)와, 도 5a를 통해 예시된 동작들을 실행하는 것에 기반하여, 제2 웨어러블 장치(102-2)와 전자 장치(101) 사이의 거리 D2를 식별할 수 있다.
예를 들면, 전자 장치(101)는, 거리 D1 및 거리 D2에 대한 정보를, 상기 사용자(또는 상기 사용자에 의해 착용된 제1 웨어러블 장치(102-1) 및 제2 웨어러블 장치(102-2))와 전자 장치(101) 사이의 상기 위치 관계에 대한 상기 정보로, 획득할 수 있다. 예를 들면, 거리 D1 및 거리 D2에 대한 상기 정보는, 전자 장치(101)로부터 상기 사용자로의 방향 또는 상기 사용자로부터 전자 장치(101)로의 방향에 대한 정보를 식별하기 위해 이용될 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 2를 참조하면, 적어도 하나의 통신 회로(230)(예: UWB를 통한 통신을 위한 통신 회로)는, 신호(예: 도 5a의 상기 제1 신호, 상기 제2 신호, 및 상기 제3 신호)의 수신을 위한 복수의 안테나들과 연결될 수 있다. 예를 들면, 상기 복수의 안테나들은, 전자 장치(101)로부터 웨어러블 장치(102)로의 제1 방향, 웨어러블 장치(102)로부터 전자 장치(102)로의 제2 방향, 기준 방향(또는 기준 선)과 상기 제1 방향 사이의 각도, 또는 상기 기준 방향과 상기 제2 방향 사이의 각도를 식별하기 위해, 이용될 수 있다. 상기 복수의 안테나들은, 도 5c를 통해 예시될 수 있다.
도 5c는 UWB를 통해 방위각 및/또는 고도각을 식별하는 예를 도시한다.
도 5c를 참조하면, 전자 장치(101)는, 적어도 하나의 통신 회로(230)(예: UWB를 통한 통신을 위한 통신 회로)와 연결된 복수의 안테나들(550)을 포함할 수 있다. 예를 들면, 복수의 안테나들(550)은, 제1 안테나(551) 및 제2 안테나(552)를 포함할 수 있다. 예를 들면, 제1 안테나(551) 및 제2 안테나(552)는 수평 방향(horizontal direction)에 대응하는 제1 방향(561)을 따라 배치될 수 있다. 예를 들면, 제2 안테나(552)는, 제1 안테나(551)로부터 이격될 수 있다. 예를 들면, 프로세서(210)는, 웨어러블 장치(102)로부터의 신호(예: 도 5a의 상기 제1 신호 및/또는 상기 제3 신호)를 제1 안테나(551)를 통해 수신하고, 상기 신호를 제2 안테나(552)를 통해 수신할 수 있다. 제1 안테나(551) 및 제2 안테나(552)는 서로 이격되기 때문에, 웨어러블 장치(102)로부터 제1 안테나(551)로의 제1 수평적 경로의 길이 및 웨어러블 장치(102)로부터 제2 안테나(552)로의 제2 수평적 경로의 길이는 서로 다를 수 있다. 예를 들면, 프로세서(210)는, 상기 제1 수평적 경로의 상기 길이와 상기 제2 수평적 경로의 상기 길이 사이의 차이를, 상기 신호를 제1 안테나(551) 및 제2 안테나(552) 각각을 통해 수신하는 것에 기반하여, 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 차이에 기반하여, 기준 방향(570)에 대한 웨어러블 장치(102)의 방위각(azimuth angle)(571)을 식별할 수 있다. 예를 들면, 기준 방향(570)은, 디스플레이(220)의 정면으로의 방향에 대응할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 복수의 안테나들(550)은, 제3 안테나(553)를 더 포함하거나 대안적으로 포함할 수 있다. 예를 들면, 제1 안테나(551) 및 제3 안테나(553)는 수직 방향(vertical direction)에 대응하는 제2 방향(562)을 따라 배치될 수 있다. 예를 들면, 제3 안테나(553)는, 제1 안테나(551)로부터 이격될 수 있다. 예를 들면, 프로세서(210)는, 웨어러블 장치(102)로부터의 신호(예: 도 5a의 상기 제1 신호 및/또는 상기 제3 신호)를 제1 안테나(551)를 통해 수신하고, 상기 신호를 제3 안테나(553)를 통해 수신할 수 있다. 제1 안테나(551) 및 제3 안테나(553)는 서로 이격되기 때문에, 웨어러블 장치(102)로부터 제1 안테나(551)로의 제1 수직적 경로의 길이 및 웨어러블 장치(102)로부터 제3 안테나(553)로의 제2 수직적 경로의 길이는 서로 다를 수 있다. 예를 들면, 프로세서(210)는, 상기 제1 수직적 경로의 상기 길이와 상기 제2 수직적 경로의 상기 길이 사이의 차이를, 상기 신호를 제1 안테나(551) 및 제3 안테나(553) 각각을 통해 수신하는 것에 기반하여, 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 차이에 기반하여, 기준 방향(570)에 대한 웨어러블 장치(102)의 고도각(elevation angle)(572)을 식별할 수 있다.
예를 들면, 전자 장치(101)는, 방위각(571) 및/또는 고도각(572)에 대한 정보를, 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 상기 위치 관계에 대한 상기 정보로, 더 획득할 수 있다.
다시 도 2를 참조하면, 도 5a 내지 도 5c를 통해 예시된, UWB를 통한 포지셔닝은, 설정된 조건에 기반하여 실행될 수 있다. 예를 들면, 웨어러블 장치(102)는, 상기 설정된 조건을 식별하는 것에 기반하여, 도 5a의 동작 501을 실행할 수 있다. 예를 들면, 웨어러블 장치(102)는, 웨어러블 장치(102)가 상기 사용자에 의해 착용됨을 식별하는 것에 응답하여, 상기 포지셔닝을 위한 동작(예: 도 5a의 동작 501)을 실행할 수 있다. 예를 들면, 웨어러블 장치(102)는, 상기 사용자에 의해 착용된 웨어러블 장치(102)의 이동에 기반하여, 상기 동작(예: 도 5a의 동작 501)을 실행할 수 있다. 상기 사용자에 의해 착용된 웨어러블 장치(102)의 상기 이동에 따른 상기 동작을 실행하는 것은, 도 6을 통해 예시될 수 있다.
도 6은 웨어러블 장치의 이동에 따른 UWB를 통한 포지셔닝의 예를 도시한다.
도 6을 참조하면, 프로세서(310)는, 사용자(120)에 의해 착용된 웨어러블 장치(102)의 이동(601)을 적어도 하나의 센서(330)를 통해 식별할 수 있다. 예를 들면, 이동(601)은, 사용자(120)에 의해 착용된 웨어러블 장치(102)가 전자 장치(101)를 향해 이동하는 것을 포함할 수 있다. 예를 들면, 프로세서(310)는, 이동(601)을, 웨어러블 장치(102)의 가속도 센서, 자이로 센서, 및/또는 계보기를 통해, 식별할 수 있다. 예를 들면, 프로세서(310)는, 이동(601)에 응답하여, 웨어러블 장치(102)의 상태를 제1 상태(611)로부터 제2 상태(612)로 변경할 수 있다. 예를 들면, 제1 상태(611)는, 적어도 하나의 통신 회로(320)(예: UWB를 통한 통신을 위한 통신 회로)가 비활성화된 상태 또는 적어도 하나의 통신 회로(320)를 통해 신호(예: 도 5a의 상기 제1 신호 및/또는 상기 제3 신호)를 송신하는 것이 삼가되는 상태를 나타낼 수 있다. 예를 들면, 제2 상태(612)는, 적어도 하나의 통신 회로(320)를 통해 상기 신호를 송신하는 상태 또는 상기 신호를 송신하는 것이 인가된 상태를 나타낼 수 있다.
예를 들면, 프로세서(310)는, 사용자(120)에 의해 착용된 웨어러블 장치(102)의 이동(621)을 적어도 하나의 센서(330)를 통해 식별할 수 있다. 예를 들면, 이동(621)은, 사용자(120)에 의해 착용된 웨어러블 장치(102)가 전자 장치(101)의 정면으로부터 전자 장치(101)의 측면으로 이동하는 것을 포함할 수 있다. 예를 들면, 프로세서(310)는, 이동(621)을, 상기 가속도 센서, 상기 자이로 센서, 및/또는 상기 계보기를 통해, 식별할 수 있다. 예를 들면, 프로세서(310)는, 이동(621)에 응답하여, 웨어러블 장치(102)의 상태를 제1 상태(611)로부터 제2 상태(612)로 변경할 수 있다.
제1 상태(611)로부터 제2 상태(612)로의 상기 변경은, 이동(601) 및/또는 이동(621)의 종료에 응답하여 실행될 수 있다. 예를 들면, 프로세서(310)는, 정지 상태 내의 웨어러블 장치(102)의 위치의 식별을 위해, 이동(601) 및/또는 이동(621)의 시작에 응답하여, 이동(601) 및/또는 이동(621)이 종료되는지 여부를 식별하고, 이동(601) 및/또는 이동(621)의 상기 종료에 응답하여, 제1 상태(611)를 제2 상태(612)로 변경할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 프로세서(310)는, 이동(601) 및/또는 이동(621)이 진행되는 동안, 제1 상태(611)를 제2 상태(612)로 변경할 수도 있다.
예를 들면, 웨어러블 장치(102)는, 이동(601) 및/또는 이동(621)에 기반하여 제1 상태(611)를 제2 상태(612)로 변경함으로써, 상기 포지셔닝을 위한 상기 동작으로 인하여 소비되는 전력을 감소시킬 수 있다.
다시 도 2를 참조하면, 프로세서(210)는, UWB를 통한 포지셔닝에 기반하여 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 상기 위치 관계를 식별한 후, UWB를 통한 상기 포지셔닝과 구별되는 방법을 이용하여, 상기 위치 관계의 변경을 식별할 수 있다. 예를 들면, 프로세서(210)는, 웨어러블 장치(102)의 적어도 하나의 센서(330)를 통해 획득된, 웨어러블 장치(102)의 이동에 대한 정보를 이용하여 상기 위치 관계의 상기 변경을 식별할 수 있다. 예를 들면, 웨어러블 장치(102)의 상기 이동에 대한 상기 정보는, UWB를 통한 포지셔닝을 보조할 수 있다. 웨어러블 장치(102)의 상기 이동에 대한 상기 정보를 이용하여 UWB를 통한 포지셔닝을 보조하는 것은, 도 7을 통해 예시될 수 있다.
도 7은 웨어러블 장치의 이동에 대한 정보를 이용하여 UWB를 통한 포지셔닝을 보조하는(assist) 예를 도시한다.
도 7을 참조하면, 프로세서(310)는, 제2 상태(612) 내에서, 전자 장치(101)와, UWB를 통한 상기 포지셔닝을 실행할 수 있다. 도 7 내에서 도시되지 않았으나, 전자 장치(101)의 프로세서(210)는, 상기 포지셔닝을 통해, 제2 상태(612) 내의 웨어러블 장치(102)와 전자 장치(101) 사이의 위치 관계를 식별할 수 있다.
예를 들면, 상기 위치 관계가 식별된 후, 웨어러블 장치(102)는 이동될 수 있다.
예를 들면, 프로세서(310)는, 상기 위치 관계가 식별된 후, 사용자(120)에 의해 착용된 웨어러블 장치(102)의 이동(701)을 적어도 하나의 센서(330)를 통해 식별할 수 있다. 예를 들면, 이동(701)은, 사용자(120)에 의해 착용된 웨어러블 장치(102)가 전자 장치(101)를 향해 이동하는 것을 포함할 수 있다. 예를 들면, 프로세서(310)는, 이동(701)을, 웨어러블 장치(102)의 가속도 센서, 자이로 센서, 및/또는 계보기를 통해, 식별할 수 있다. 예를 들면, 프로세서(310)는, 이동(701)에 응답하여, 웨어러블 장치(102)의 상태를 제2 상태(612)로부터 제3 상태(713)로 변경할 수 있다. 예를 들면, 제3 상태(713)는, UWB를 통한 통신과 구별되는 통신(예: 블루투스 레거시 및/또는 BLE)을 통해 신호를 송신하는 상태를 나타낼 수 있다. 예를 들면, 제3 상태(713) 내에서 송신되는 상기 신호는, 웨어러블 장치(102)의 이동에 대한 정보를 포함할 수 있다. 예를 들면, 상기 정보는, 상기 위치 관계가 식별된 후 이동된 웨어러블 장치(102)의 위치의 변화를 나타낼 수 있다. 프로세서(210)는, 제3 상태(713) 내에서 웨어러블 장치(102)로부터 송신된 상기 신호를 수신함으로써, 변경된 상기 위치 관계를 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 변경된 위치 관계에 대한 정보를 획득할 수 있다.
예를 들면, 프로세서(310)는, 상기 위치 관계가 식별된 후, 사용자(120)에 의해 착용된 웨어러블 장치(102)의 이동(721)을 적어도 하나의 센서(330)를 통해 식별할 수 있다. 예를 들면, 이동(721)은, 사용자(120)에 의해 착용된 웨어러블 장치(102)가 전자 장치(101)의 정면으로부터 전자 장치(101)의 측면으로 이동하는 것을 포함할 수 있다. 예를 들면, 프로세서(310)는, 이동(721)을, 상기 가속도 센서, 상기 자이로 센서, 및/또는 상기 계보기를 통해, 식별할 수 있다. 예를 들면, 프로세서(310)는, 이동(721)에 응답하여, 웨어러블 장치(102)의 상태를 제2 상태(612)로부터 제3 상태(713)로 변경할 수 있다. 프로세서(210)는, 제3 상태(713) 내에서 웨어러블 장치(102)로부터 송신된 상기 신호를 수신함으로써, 변경된 상기 위치 관계를 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 변경된 위치 관계에 대한 정보를 획득할 수 있다.
예를 들면, 웨어러블 장치(102)는, 이동(601) 및/또는 이동(621)에 기반하여 제1 상태(611)를 제2 상태(612)로 변경함으로써, 상기 포지셔닝을 위한 상기 동작으로 인하여 소비되는 전력을 감소시킬 수 있다.
다시 도 2를 참조하면, 전자 장치(101)는, UWB를 통한 통신을 위한 통신 회로, UWB를 통한 상기 통신과 구별되는 다른 통신을 위한 다른 통신 회로 중 상기 다른 통신 회로를 적어도 하나의 통신 회로(230)로 포함할 수 있다. 이러한 경우, 전자 장치(101)는, UWB를 통한 상기 통신을 위한 통신 회로를 포함하는 다른 전자 장치를 이용하여, UWB를 통한 포지셔닝을 실행할 수 있다. 상기 다른 전자 장치를 이용하여 실행되는 UWB를 통한 포지셔닝은, 도 8을 통해 예시될 것이다.
도 8은 전자 장치와 구별되는 다른 전자 장치를 이용하여 실행되는 UWB를 통한 포지셔닝의 예를 도시한다.
도 8을 참조하면, 다른 전자 장치(801)는, 전자 장치(101)와 달리, UWB를 통한 통신을 수행할 수 있는 능력을 가질 수 있다. 예를 들면, 다른 전자 장치(801)는, 전자 장치(101)와 UWB를 통한 상기 통신을 위한 통신 회로 및 UWB를 통한 상기 통신과 구별되는 다른 통신을 위한 다른 통신 회로를 포함할 수 있다. 예를 들면, 다른 전자 장치(801)는, 상기 통신 회로를 통해, 웨어러블 장치(102)와 UWB를 통한 포지셔닝(802)을 실행할 수 있다. 예를 들면, 포지셔닝(802)은, 도 5a와 유사하게 실행될 수 있다. 예를 들면, 다른 전자 장치(801)는, 상기 다른 통신 회로를 통해 전자 장치(101)에게, 다른 전자 장치(801)와 웨어러블 장치(102) 사이의 위치 관계에 대한 정보(803)를, 송신할 수 있다. 예를 들면, 프로세서(210)는, 다른 전자 장치(801)로부터 정보(803)를 수신할 수 있다.
예를 들면, 프로세서(210)는, 정보(803)에 기반하여 식별된, 다른 전자 장치(801)와 상기 사용자에 의해 착용된 웨어러블 장치(102) 사이의 상기 위치 관계를, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 위치 관계로, 변환할(convert) 수 있다. 예를 들면, 다른 전자 장치(801)가 전자 장치(101)에 의해 지지되거나 거치될 시, 프로세서(210)는, 다른 전자 장치(801)와 전자 장치(101) 사이의 위치 관계를 인식할 수 있기 때문에, 프로세서(210)는, 다른 전자 장치(801)와 상기 사용자에 의해 착용된 웨어러블 장치(102) 사이의 상기 위치 관계를, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 상기 위치 관계로, 변환할 수 있다. 예를 들면, 프로세서(210)는, 다른 전자 장치(801)를 이용하여 UWB를 통한 포지셔닝을 실행할 수 있다.
다시 도 2를 참조하면, 프로세서(210)는, UWB를 통한 포지셔닝과 구별되는 다른 방법에 기반하여, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 상기 위치 관계에 대한 상기 정보를 획득할 수 있다. 예를 들면, 프로세서(210)는, 웨어러블 장치(102)로부터 전자 장치(101)를 표현하는 이미지에 대한 정보를 수신함으로써, 상기 위치 관계에 대한 상기 정보를 획득할 수 있다. 상기 이미지는, 웨어러블 장치(102)의 카메라를 통해 획득될 수 있다. 상기 카메라를 통해 상기 이미지를 획득하는 것은, 도 9를 통해 예시될 수 있다.
도 9는 웨어러블 장치의 카메라를 통해 이미지를 획득하는 예를 도시한다.
도 9를 참조하면, 위치(901)에서의 웨어러블 장치(102)의 프로세서(310)는, 상태(902)와 같이, 웨어러블 장치(102)의 카메라를 통해 이미지(903)를 획득할 수 있다. 예를 들면, 이미지(903)는, 전자 장치(101)를 표현하는(represent) 이미지일 수 있다. 예를 들면, 이미지(903)는, 전자 장치(101)에 대응하는 시각적 객체(904)를 포함할 수 있다. 예를 들면, 프로세서(310)는, 시각적 객체(904)가 이미지(903) 내에 포함됨을 식별하는 것에 기반하여, 이미지(903)에 대한 정보를 적어도 하나의 통신 회로(320)를 통해 전자 장치(101)에게 송신할 수 있다. 예를 들면, 프로세서(210)는, 웨어러블 장치(102)로부터 이미지(903)에 대한 상기 정보를 수신할 수 있다. 예를 들면, 프로세서(210)는, 상기 수신에 응답하여, 이미지(903) 내에서의 시각적 객체(904)의 사이즈 및 이미지(903) 내에서의 시각적 객체(904)의 위치에 기반하여, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 상기 위치 관계를 식별할 수 있다.
예를 들면, 위치(911)에서의 웨어러블 장치(102)의 프로세서(310)는, 상태(912)와 같이, 상기 카메라를 통해 이미지(913)를 획득할 수 있다. 예를 들면, 이미지(913)는, 전자 장치(101)를 표현하는 이미지일 수 있다. 예를 들면, 이미지(913)는, 전자 장치(101)에 대응하는 시각적 객체(904)를 포함할 수 있다. 예를 들면, 프로세서(310)는, 시각적 객체(904)가 이미지(913) 내에 포함됨을 식별하는 것에 기반하여, 이미지(913)에 대한 정보를 적어도 하나의 통신 회로(320)를 통해 전자 장치(101)에게 송신할 수 있다. 예를 들면, 프로세서(210)는, 웨어러블 장치(102)로부터 이미지(913)에 대한 상기 정보를 수신할 수 있다. 예를 들면, 프로세서(210)는, 상기 수신에 응답하여, 이미지(913) 내에서의 시각적 객체(904)의 사이즈 및 이미지(913) 내에서의 시각적 객체(904)의 위치에 기반하여, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 상기 위치 관계를 식별할 수 있다. 예를 들면, 프로세서(210)는, 이미지(913) 내에서의 시각적 객체(904)의 사이즈 및 이미지(913) 내에서의 시각적 객체(904)의 위치에 기반하여, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 상기 위치 관계를 식별할 수 있다. 예를 들면, 프로세서(210)는, 이미지(903) 내에서의 시각적 객체(904)의 사이즈보다 작은 사이즈를 가지는 이미지(913) 내에서의 시각적 객체(904)에 기반하여, 상태(912) 내에서의 전자 장치(101)와 웨어러블 장치(102) 사이의 거리가 상태(902) 내에서의 전자 장치(101)와 웨어러블 장치(102) 사이의 거리보다 김을 식별할 수 있다.
예를 들면, 위치(921)에서의 웨어러블 장치(102)의 프로세서(310)는, 상태(922)와 같이, 상기 카메라를 통해 이미지(923)를 획득할 수 있다. 예를 들면, 이미지(923)는, 전자 장치(101)를 표현하는 이미지일 수 있다. 예를 들면, 이미지(923)는, 전자 장치(101)에 대응하는 시각적 객체(904)의 일부를 포함할 수 있다. 예를 들면, 프로세서(310)는, 시각적 객체(904)의 상기 일부가 이미지(923) 내에 포함됨을 식별하는 것에 기반하여, 이미지(923)에 대한 정보를 적어도 하나의 통신 회로(320)를 통해 전자 장치(101)에게 송신할 수 있다. 예를 들면, 프로세서(210)는, 웨어러블 장치(102)로부터 이미지(923)에 대한 상기 정보를 수신할 수 있다. 예를 들면, 프로세서(210)는, 상기 수신에 응답하여, 이미지(923) 내에서의 시각적 객체(904)의 사이즈(또는 이미지(923) 내에서의 시각적 객체(904)의 상기 일부의 사이즈) 및 이미지(923) 내에서의 시각적 객체(904)의 위치에 기반하여, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 상기 위치 관계를 식별할 수 있다. 예를 들면, 프로세서(210)는, 이미지(923) 내에서의 시각적 객체(904)의 사이즈 및 이미지(923) 내에서의 시각적 객체(904)의 위치에 기반하여, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 상기 위치 관계를 식별할 수 있다. 예를 들면, 프로세서(210)는, 이미지(913) 내에서의 시각적 객체(904)의 위치와 다른 이미지(923) 내에서의 시각적 객체(904)의 위치에 기반하여, 상태(922) 내에서의 웨어러블 장치(102)가 전자 장치(101)의 정면에 위치된 상태(912) 내에서의 웨어러블 장치(102)와 달리 전자 장치(101)의 측면에 위치됨을 식별할 수 있다.
다시 도 2를 참조하면, 프로세서(210)는, 웨어러블 장치(102)에 대하여 독립된 상태(standalone state) 내에서, 카메라(240)를 통해, 전자 장치(101)와 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)) 사이의 상기 위치 관계에 대한 상기 정보를 획득할 수 있다. 예를 들면, 카메라(240)는, 디스플레이(220)가 향하는 방향에 대응하는 방향을 향할 경우, 프로세서(210)는, 카메라(240)를 통해 획득된 이미지에 기반하여, 상기 위치 관계에 대한 상기 정보를 획득할 수 있다. 상기 이미지를 획득하는 것은, 도 10을 통해 예시될 수 있다.
도 10은 전자 장치의 카메라를 통해 이미지를 획득하는 예를 도시한다.
도 10을 참조하면, 프로세서(210)는, 상태(1000)와 같이, 카메라(240)를 이용하여, 사용자(120)를 표현하는 이미지(1001)를 획득할 수 있다. 예를 들면, 이미지(1001)는, 사용자(120)의 신체의 적어도 일부(예: 얼굴)에 대응하는 시각적 객체(1002)를 포함할 수 있다. 예를 들면, 프로세서(210)는, 이미지(1001)를 획득하는 동안, 이미지(1001)에 대응하는 프리뷰 이미지를 디스플레이(220)를 통해 표시하는 것을 삼가할 수 있다. 예를 들면, 이미지(1001)를 획득하는 것은, 사용자(120)에 대하여 투명할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 프로세서(210)는, 이미지(1001) 내에서의 시각적 객체(1002)의 사이즈 및 이미지(1001) 내에서의 시각적 객체(1002)의 위치에 기반하여, 사용자(120)와 전자 장치(101) 사이의 위치 관계에 대한 정보를 획득할 수 있다. 예를 들면, 프로세서(210)는, 시각적 객체(1002)의 상기 사이즈와 기준 사이즈를 비교함으로써, 사용자(120)와 전자 장치(101) 사이의 거리를 식별할 수 있다. 예를 들면, 상기 기준 사이즈는, 사용자(120)와 전자 장치(101) 사이의 상기 거리를 식별하기 위해 전자 장치(101) 내에서 이용될 수 있다. 예를 들면, 프로세서(210)는, 상태(1000) 내에서, 시각적 객체(1002)의 상기 사이즈가 상기 기준 사이즈보다 큼을 식별할 수 있다. 예를 들면, 프로세서(210)는, 시각적 객체(1002)가 이미지(1001) 내의 기준 영역(1003) 내에 포함되는지 여부를 식별함으로써, 사용자(120)로부터 전자 장치(101)로의 방향 또는 전자 장치(101)로부터 사용자(120)로의 방향을 식별할 수 있다. 예를 들면, 프로세서(210)는, 시각적 객체(1002)가 기준 영역(1003) 안에 위치됨을 식별하는 것에 기반하여, 사용자(120)가 디스플레이(220)의 정면에 위치됨을 식별할 수 있다.
예를 들면, 프로세서(210)는, 상태(1020)와 같이, 카메라(240)를 이용하여, 사용자(120)를 표현하는 이미지(1021)를 획득할 수 있다. 예를 들면, 이미지(1021)는, 사용자(120)의 신체의 적어도 일부에 대응하는 시각적 객체(1002)를 포함할 수 있다. 예를 들면, 프로세서(210)는, 이미지(1021)를 획득하는 동안, 이미지(1021)에 대응하는 프리뷰 이미지를 디스플레이(220)를 통해 표시하는 것을 삼가할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 프로세서(210)는, 이미지(1021) 내에서의 시각적 객체(1002)의 사이즈 및 이미지(1021) 내에서의 시각적 객체(1002)의 위치에 기반하여, 사용자(120)와 전자 장치(101) 사이의 위치 관계에 대한 정보를 획득할 수 있다. 예를 들면, 프로세서(210)는, 이미지(1021) 내에서의 시각적 객체(1002)의 상기 사이즈와 상기 기준 사이즈를 비교함으로써, 사용자(120)와 전자 장치(101) 사이의 거리를 식별할 수 있다. 예를 들면, 프로세서(210)는, 상태(1020) 내에서, 시각적 객체(1002)의 상기 사이즈가 상기 기준 사이즈보다 작음을 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 식별에 기반하여, 상태(1020) 내에서의 사용자(120)와 전자 장치(101) 사이의 거리가 상태(1000) 내에서의 사용자(120)와 전자 장치(101) 사이의 거리보다 김을 식별할 수 있다. 예를 들면, 프로세서(210)는, 시각적 객체(1002)가 기준 영역(1003) 안에 위치됨을 식별하는 것에 기반하여, 상태(1020) 내에서 사용자(120)가 디스플레이(220)의 정면에 위치됨을 식별할 수 있다.
예를 들면, 프로세서(210)는, 상태(1040)와 같이, 카메라(240)를 이용하여, 사용자(120)를 표현하는 이미지(1041)를 획득할 수 있다. 예를 들면, 이미지(1041)는, 사용자(120)의 신체의 적어도 일부에 대응하는 시각적 객체(1002)를 포함할 수 있다. 예를 들면, 프로세서(210)는, 이미지(1041)를 획득하는 동안, 이미지(1041)에 대응하는 프리뷰 이미지를 표시하는 것을 삼가할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 프로세서(210)는, 이미지(1041) 내에서의 시각적 객체(1002)의 사이즈 및 이미지(1041) 내에서의 시각적 객체(1002)의 위치에 기반하여, 사용자(120)와 전자 장치(101) 사이의 위치 관계에 대한 정보를 획득할 수 있다. 예를 들면, 프로세서(210)는, 이미지(1041) 내에서의 시각적 객체(1002)의 상기 사이즈와 상기 기준 사이즈를 비교함으로써, 사용자(120)와 전자 장치(101) 사이의 거리를 식별할 수 있다. 예를 들면, 프로세서(210)는, 상태(1040) 내에서, 시각적 객체(1002)의 상기 사이즈가 상기 기준 사이즈보다 작음을 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 식별에 기반하여, 상태(1040) 내에서의 사용자(120)와 전자 장치(101) 사이의 거리가 상태(1020) 내에서의 사용자(120)와 전자 장치(101) 사이의 거리에 대응함을 식별할 수 있다. 예를 들면, 프로세서(210)는, 시각적 객체(1002)가 기준 영역(1003) 밖에 위치됨을 식별하는 것에 기반하여, 상태(1040) 내에서의 사용자(120)가 상태(1020) 내에서의 사용자(120)와 달리, 디스플레이(220)의 측면에 위치됨을 식별할 수 있다.
도 10은 웨어러블 장치(102)를 착용하지 않은 상태 내의 사용자(120)를 도시하고 있으나, 이는 도 10을 통해 예시된 동작들이 웨어러블 장치(102)에 대하여 독립된 상태로 실행될 수 있음을 나타내기 위한 것이다. 전자 장치(101)는, 도 10을 통해 예시된 동작들을, 웨어러블 장치(102)와 함께 실행되는 UWB를 통한 포지셔닝을 위한 동작들과 함께, 실행할 수도 있다.
다시 도 2를 참조하면, 프로세서(210)는, 상기 사용자(또는 상기 사용자에 의해 착용된 웨어러블 장치(102))와 전자 장치(101) 사이의 위치 관계와 상기 복수의 기준 위치 관계들 각각을 비교할 수 있다. 예를 들면, 프로세서(210)는, 상기 복수의 기준 위치 관계들 중 상기 위치 관계에 대응하는 기준 위치 관계를 식별할 수 있다. 예를 들면, 상기 복수의 기준 위치 관계들은, 상기 웹페이지의 복수의 표현들에 대응할 수 있다. 예를 들면, 상기 복수의 기준 위치 관계들은, 상기 웹페이지의 상기 복수의 표현들과 연계로 전자 장치(101) 내에서 등록될 수 있다. 예를 들면, 프로세서(210)는, 상기 복수의 표현들 중 상기 기준 위치 관계에 대응하는 표현에 기반하여, 상기 웹페이지를 표시할 수 있다. 상기 복수의 표현들은, 도 11을 통해 예시될 수 있다.
도 11은 웹페이지의 복수의 표현들의 예를 도시한다.
도 11을 참조하면, 상기 웹페이지는, 복수의 표현들(1100)을 가질 수 있다. 예를 들면, 복수의 표현들(1100)은, 제1 표현(1101), 제2 표현(1132), 및 제3 표현(1163)을 포함할 수 있다.
예를 들면, 제1 표현(1101)은, 복수의 표현들(1100) 중 전자 장치(101)에 상대적으로 가까운 사용자를 위한 표현일 수 있다. 예를 들면, 제1 표현(1101)은, 디스플레이(220)를 통해 표시되는 상기 웹페이지에 집중할(focus on) 수 있는 사용자를 위한 표현일 수 있다. 예를 들면, 제1 표현(1101)은, 도 4의 복수의 기준 위치 관계들(410) 중 제1 기준 위치 관계(410-1) 및 제4 기준 위치 관계(410-4)에 대응할 수 있다. 예를 들면, 제1 표현(1101)은, 상기 위치 관계가 제1 기준 위치 관계(410-1) 및 제4 기준 위치 관계(410-4) 각각에 대응할 시, 상기 웹페이지를 표시하기 위해 이용될 수 있다. 다른 예를 들면, 제1 표현(1101)은, 제1 기준 위치 관계(410-1) 및 제4 기준 위치 관계(410-4) 중 제1 기준 위치 관계(410-1)에 대응할 수도 있다.
예를 들면, 제1 표현(1101)은, 제2 표현(1132)에 기반하여 표시되는 상기 웹페이지 및 제3 표현(1163)에 기반하여 표시되는 상기 웹페이지로부터 제공되는 정보의 양보다 많은 양의 정보를 제공하기 위한 표현일 수 있다. 예를 들면, 제1 표현(1101)에 기반하여 표시되는 상기 웹페이지 내의 시각적 객체들의 사이즈는, 디스플레이(220)의 사이즈(또는 디스플레이(220)의 표시 영역의 사이즈)의 한계로 인하여, 제2 표현(1132)에 기반하여 표시되는 상기 웹페이지 및 제3 표현(1163)에 기반하여 표시되는 상기 웹페이지 내의 시각적 객체들의 사이즈보다, 작을 수 있다.
예를 들면, 제1 표현(1101)은, 복수의 컨테이너들(1110)을 포함할 수 있다. 예를 들면, 제1 표현(1101)은, 다수의 열들(multiple rows)로 배열된 복수의 컨테이너들(1110)을 포함할 수 있다.
예를 들면, 복수의 컨테이너들(1110) 각각은, 상기 웹페이지의 레이아웃을 형성하기 위한 태그일 수 있다. 예를 들면, 상기 웹페이지 내에서의 복수의 컨테이너들(1110)의 배치는, 복수의 컨테이너들(1110) 각각에 할당된 속성(attribute)(예: 스타일(style)과 같은 특정 명칭을 가지는 속성) 및/또는 복수의 컨테이너들(1110)을 포함하는 상기 웹페이지에 의해 참조되는 정보(예: CSS(cascaded style sheet))에 의해 설정될 수 있다. 예를 들면, 복수의 컨테이너들(1110) 각각은, 상기 웹페이지 내의 시각적 객체들의 배치를 위해 상기 웹페이지 내에 포함될 수 있다. 예를 들면, 복수의 컨테이너들(1110) 각각은, 적어도 하나의 시각적 객체를 포함할 수 있다.
예를 들면, 복수의 컨테이너들(1110)은, 제1 컨테이너(1111) 내지 제6 컨테이너(1116)를 포함할 수 있다.
예를 들면, 복수의 컨테이너들(1110) 중 제1 컨테이너(1111)는, 상기 웹페이지의 제목(title)에 대응하는 적어도 하나의 시각적 객체를 포함할 수 있다. 예를 들면, 복수의 컨테이너들(1110) 중 제2 컨테이너(1112), 제4 컨테이너(1114), 및 제6 컨테이너(1116) 각각은, 상기 웹페이지의 바디 텍스트(body text) 및/또는 스크립트(script)에 대응하는 적어도 하나의 시각적 객체를 포함할 수 있다. 예를 들면, 제2 컨테이너(1112), 제4 컨테이너(1114), 및 제6 컨테이너(1116) 각각 내의 상기 적어도 하나의 시각적 객체의 사이즈는, 제1 컨테이너(1111) 내의 상기 적어도 하나의 시각적 객체의 사이즈보다 작을 수 있다. 예를 들면, 복수의 컨테이너들(1110) 중 제3 컨테이너(1113)는, 이미지(image)에 대응하는 적어도 하나의 시각적 객체를 포함할 수 있다. 예를 들면, 제3 컨테이너(1113) 내의 상기 적어도 하나의 시각적 객체는, 제1 컨테이너(1111), 제2 컨테이너(1112), 제4 컨테이너(1114), 및 제6 컨테이너(1116) 각각으로부터 제공되는 정보보다, 직관적인 정보를 제공할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 복수의 컨테이너들(1110) 중 제5 컨테이너(1115)는, 동영상(video)에 대응하는 적어도 하나의 시각적 객체를 포함할 수 있다. 예를 들면, 제5 컨테이너(1115) 내의 상기 적어도 하나의 시각적 객체는, 제1 컨테이너(1111), 제2 컨테이너(1112), 제4 컨테이너(1114), 및 제6 컨테이너(1116) 각각으로부터 제공되는 정보보다, 직관적인 정보를 제공할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 제3 표현(1163)은, 복수의 표현들(1100) 중 전자 장치(101)에 상대적으로 먼 사용자를 위한 표현일 수 있다. 예를 들면, 제3 표현(1163)은, 도 4의 복수의 기준 위치 관계들(410) 중 제7 기준 위치 관계(410-7), 제8 기준 위치 관계(410-8), 및 제9 기준 위치 관계(410-9)에 대응할 수 있다. 예를 들면, 제3 표현(1163)은, 상기 위치 관계가 제7 기준 위치 관계(410-7), 제8 기준 위치 관계(410-8), 및 제9 기준 위치 관계(410-9) 각각에 대응할 시, 상기 웹페이지를 표시하기 위해 이용될 수 있다.
예를 들면, 제3 표현(1163)은, 제1 표현(1101)에 기반하여 표시되는 상기 웹페이지 및 제2 표현(1132)에 기반하여 표시되는 상기 웹페이지로부터 제공되는 정보의 양보다 적은 양의 정보를 제공하기 위한 표현일 수 있다. 예를 들면, 제3 표현(1163)은, 제1 표현(1101)에 기반하여 표시되는 상기 웹페이지 및 제2 표현(1132)에 기반하여 표시되는 상기 웹페이지보다 직관적인 정보를 제공하기 위한 표현일 수 있다. 예를 들면, 제3 표현(1163)에 기반하여 표시되는 상기 웹페이지 내의 시각적 객체의 사이즈는, 제1 표현(1101) 및 제2 표현(1132) 각각에 기반하여 표시되는 상기 웹페이지 내의 시각적 객체의 사이즈보다 클 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 제3 표현(1163)은, 제1 표현(1101)과 달리, 제3 컨테이너(1113) 및 제5 컨테이너(1115)를 포함할 수 있다. 예를 들면, 제3 표현(1163) 내의 제3 컨테이너(1113) 및 제5 컨테이너(1115)는, 제1 표현(1101) 내의 복수의 컨테이너들(1110)과 달리, 단일 열(single raw)로 배열될 수 있다. 예를 들면, 제3 표현(1163) 내에서의 제3 컨테이너(1113) 및 제5 컨테이너(1115) 각각의 사이즈는, 제1 표현(1101) 내에서의 제3 컨테이너(1113) 및 제5 컨테이너(1115) 각각의 사이즈보다 클 수 있다. 예를 들면, 제3 표현(1163) 내에서의 제3 컨테이너(1113) 및 제5 컨테이너(1115) 각각 내의 시각적 객체의 사이즈는, 제1 표현(1101) 내에서의 제3 컨테이너(1113) 및 제5 컨테이너(1115) 각각 내의 시각적 객체의 사이즈보다 클 수 있다.
예를 들면, 제3 표현(1163)은, 디스플레이(220)로부터 상대적으로 먼 사용자를 위한 표현이기 때문에, 제3 표현(1163)에 기반하여 표시되는 상기 웹페이지의 해상도는, 제1 표현(1101)에 기반하여 표시되는 상기 웹페이지의 해상도보다 낮을 수 있다. 예를 들면, 제3 표현(1163) 내에서의 제3 컨테이너(1113) 및 제5 컨테이너(1115) 각각 내의 시각적 객체의 해상도는, 제1 표현(1101) 내에서의 제3 컨테이너(1113) 및 제5 컨테이너(1115) 각각 내의 시각적 객체의 해상도보다 낮을 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 제2 표현(1132)은, 제1 표현(1101) 및 제3 표현(1163) 사이의 중간 표현일 수 있다. 예를 들면, 제2 표현(1132)은, 도 4의 복수의 기준 위치 관계들(410) 중 제2 기준 위치 관계(410-2), 제3 기준 위치 관계(410-3), 제5 기준 위치 관계(410-5), 및 제6 기준 위치 관계(410-6)에 대응할 수 있다. 예를 들면, 제2 표현(1132)은, 상기 위치 관계가 제2 기준 위치 관계(410-2), 제3 기준 위치 관계(410-3), 제5 기준 위치 관계(410-5), 및 제6 기준 위치 관계(410-6) 각각에 대응할 시, 상기 웹페이지를 표시하기 위해 이용될 수 있다. 다른 예를 들면, 제2 표현(1132)는, 제4 기준 위치 관계(410-4)에 더(further) 대응할 수도 있다.
예를 들면, 제2 표현(1132)은, 정보를 직관적으로 전달하기 위해 복수의 컨테이너들(1110) 중 직관적 정보를 제공하기 위한 제3 컨테이너(1113) 및 제5 컨테이너(1115)를 포함하는 제3 표현(1163)과 달리, 복수의 컨테이너들(1110)의 표시 순서에 기반될 수 있다. 예를 들면, 제2 표현(1132)은, 상기 표시 순서에 기반하여, 복수의 컨테이너들(1110) 중 제1 컨테이너(1111), 제2 컨테이너(1112), 제3 컨테이너(1113), 및 제4 컨테이너(1114)를 포함할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 제2 표현(1132) 내의 제1 컨테이너(1111) 내지 제4 컨테이너(1114)는, 제1 표현(1101) 내의 복수의 컨테이너들(1110)과 달리, 단일 열(single raw)로 배열될 수 있다. 예를 들면, 제2 표현(1132) 내의 제1 컨테이너(1111) 내지 제4 컨테이너(1114) 각각의 사이즈는, 제1 표현(1101) 내의 제1 컨테이너(1111) 내지 제4 컨테이너(1114) 각각의 사이즈보다 클 수 있다. 예를 들면, 제2 표현(1132) 내에서의 제1 컨테이너(11131 내지 제4 컨테이너(1114) 각각 내의 시각적 객체의 사이즈는, 제1 표현(1101) 내에서의 제1 컨테이너(1111) 내지 제4 컨테이너(1114) 각각 내의 시각적 객체의 사이즈보다 클 수 있다.
예를 들면, 제1 표현(1101), 제2 표현(1132), 및 제3 표현(1163) 각각 내에 포함되는 상기 웹페이지 내의 시각적 객체들은 아래의 표 1과 같이 분류될 수 있다.
시각적 객체
(HTML 요소들)
제1 표현(1101) 제2 표현(1132) 제3 표현(1163)
Head Title O O X
Body Text O O X
Image O O O
Video O O O
Script O X X
Button O X X
Input O X X
Ad Tag O X X
Etc O X X
표 1에서, "O"는 해당 시각적 객체가 해당 표현 내에 포함됨을 나타내고, "X"는 해당 시각적 객체가 해당 표현 내에 포함되지 않음을 나타낼 수 있다.
예를 들면, 제1 표현(1101), 제2 표현(1132), 및 제3 표현(1163)은 상기 복수의 기준 위치 관계들 뿐 아니라 다른 조건(condition)에 기반하여 적응적으로 제공될 수도 있다. 예를 들어, 사용자의 시력에 대한 정보가 저장된 경우, 프로세서(210)는, 상기 정보에 기반하여, 제1 표현(1101), 제2 표현(1132), 및 제3 표현(1163) 중 하나의 표현을 적응적으로 제공할 수 있다. 예를 들어, 상기 정보에 기반하여 상기 사용자의 시력을 나타내는 값이 제1 값보다 높음을 식별하는 경우, 제1 표현(1101)이 제공되고, 상기 정보에 기반하여 상기 값이 상기 제1 값보다 낮거나 같고, 제2 값보다 높음을 식별하는 경우, 제2 표현(1132)이 제공되고, 상기 정보에 기반하여 상기 값이 상기 제2 값보다 낮거나 같음을 식별하는 경우, 제3 표현(1163)이 제공될 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 2를 참조하면, 프로세서(210)는, 상기 웹페이지와 함께 표시되는 적어도 하나의 실행가능한 객체의 표시 위치를, 상기 사용자의 자세(또는 상기 사용자에 의해 착용된 웨어러블 장치(102)의 자세)에 기반하여, 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 웹페이지와 함께 상기 적어도 하나의 실행가능한 객체를 표시하는 동안, 적어도 하나의 통신 회로(230)를 통해 웨어러블 장치(102)로부터 웨어러블 장치(102)의 자세를 나타내는 신호를 수신할 수 있다. 예를 들면, 프로세서(310)는, 웨어러블 장치(102)의 자세를 적어도 하나의 센서(330)를 이용하여 식별할 수 있다. 웨어러블 장치(102)의 자세를 식별하는 것은, 도 12를 통해 예시될 수 있다.
도 12는 웨어러블 장치의 자세의 변경의 예를 도시한다.
도 12를 참조하면, 프로세서(310)는, 웨어러블 장치(102)의 자세의 변경을 적어도 하나의 센서(330)를 통해 식별할 수 있다. 예를 들면, 상기 자세의 상기 변경은, 가속도 센서 및/또는 자이로 센서를 통해 식별될 수 있다. 예를 들면, 프로세서(310)는, 요(yaw) 축을 기준으로 하는 웨어러블 장치(102)의 제1 회전을 적어도 하나의 센서(330)를 통해 식별할 수 있다. 예를 들면, 상기 제1 회전은 웨어러블 장치(102)를 착용한 사용자(120)의 신체의 일부의 회전(1201)을 나타낼 수 있다. 예를 들면, 프로세서(310)는, 피치(pitch) 축을 기준으로 하는 웨어러블 장치(102)의 제2 회전을 적어도 하나의 센서(330)를 통해 식별할 수 있다. 예를 들면, 상기 제2 회전은 웨어러블 장치(102)를 착용한 사용자(120)의 신체의 일부의 회전(1202)을 나타낼 수 있다. 예를 들면, 프로세서(310)는, 롤(roll) 축을 기준으로 하는 웨어러블 장치(102)의 제3 회전을 적어도 하나의 센서(330)를 통해 식별할 수 있다. 예를 들면, 상기 제3 회전은 웨어러블 장치(102)를 착용한 사용자(120)의 신체의 일부의 회전(1203)을 나타낼 수 있다.
예를 들면, 프로세서(310)는, 상기 제1 회전, 상기 제2 회전, 및/또는 상기 제3 회전을 식별하는 것에 기반하여, 웨어러블 장치(102)의 자세가 제1 자세(1211)로부터 제2 자세(1212)로 변경됨을 식별할 수 있다. 예를 들면, 제1 자세(1211)는, 사용자(120)가 상기 웹페이지의 부분을 바라볼 시 웨어러블 장치(102)의 자세를 나타내고, 제2 자세(1212)는, 사용자(120)가 상기 웹페이지의 부분보다 아래에 위치된 상기 웹페이지의 다른 부분을 바라볼 시 웨어러블 장치(102)의 자세를 나타낼 수 있다.
예를 들면, 프로세서(310)는, 제1 자세(1211)로부터 제2 자세(1212)로의 변경에 기반하여, 웨어러블 장치(102)의 자세가 제1 자세(1211)로부터 제2 자세(1212)로 변경됨을 나타내는 신호를 전자 장치(101)에게 송신할 수 있다. 예를 들면, 프로세서(210)는, 웨어러블 장치(102)로부터의 상기 신호에 기반하여, 상기 웹페이지와 함께 표시되는 상기 적어도 하나의 실행가능한 객체의 표시 위치를 변경할 수 있다. 상기 표시 위치의 상기 변경은, 도 13을 통해 예시될 수 있다.
도 13은 웨어러블 장치의 자세의 변경에 따라 변경된 위치에서 웹페이지와 함께 표시되는 실행가능한 객체의 예를 도시한다.
도 13을 참조하면, 프로세서(210)는, 상태(1310)와 같이, 웹페이지(1311)와 함께, 적어도 하나의 실행가능한 객체(1312)를 표시할 수 있다. 예를 들면, 적어도 하나의 실행가능한 객체(1312)는, 웹페이지(1311)를 제어하거나, 웹페이지(1311)를 표시하기 위해 이용되는 소프트웨어 어플리케이션을 제어하거나, 웹페이지(1311)를 다른 웹페이지로 변경하기 위해 이용될 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 프로세서(210)는, 상태(1310) 내에서, 웨어러블 장치(102)로부터 웨어러블 장치(102)의 자세를 나타내거나 웨어러블 장치(102)의 자세의 변경을 나타내는 신호를 수신할 수 있다. 예를 들면, 상기 신호는, 도 12의 제1 자세(1211)로부터 제2 자세(1212)로의 변경에 따라 웨어러블 장치(102)로부터 송신될 수 있다.
예를 들면, 프로세서(210)는, 상기 신호에 응답하여, 상태(1310)를 상태(1320)로 변경될 수 있다. 예를 들면, 상태(1320) 내에서 적어도 하나의 실행가능한 객체(1312)의 위치는 상태(1310) 내에서의 적어도 하나의 실행가능한 객체(1312)의 위치와 다를 수 있다. 예를 들면, 제1 자세(1211)는, 사용자(120)가 상기 웹페이지의 부분을 바라볼 시 웨어러블 장치(102)의 자세를 나타내고, 제2 자세(1212)는, 사용자(120)가 상기 웹페이지의 부분보다 아래에 위치된 상기 웹페이지의 다른 부분을 바라볼 시 웨어러블 장치(102)의 자세를 나타내기 때문에, 프로세서(210)는, 적어도 하나의 실행가능한 객체(1312)의 위치를 제2 자세(1212)에 대응하는 위치로 변경할 수 있다. 예를 들면, 상태(132) 내에서의 적어도 하나의 실행가능한 객체(1312)의 위치는, 상태(1310) 내에서의 적어도 하나의 실행가능한 객체(1312)의 위치에 대하여, 제2 자세(1212)를 위해 더 적합할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 전자 장치(101)는, 웨어러블 장치(102)의 적어도 하나의 센서(330)를 통해 획득된 정보에 기반하여, 상기 웹페이지와 관련된 제어의 편의성을 강화할 수 있다.
위 예시된 동작들은, 다양한 방법들로 조합될 수 있다. 예를 들면, 전자 장치(101) 및 웨어러블 장치(102)는 도 14를 통해 예시된 동작들을 실행할 수 있다. 예를 들면, 전자 장치(101)는 도 15를 통해 예시된 동작들을 실행할 수 있다.
도 14는 웨어러블 장치로부터 수신된 신호에 기반하여 웹페이지를 적응적으로 표시하는 방법을 도시하는 흐름도이다. 상기 방법은, 전자 장치(101) 또는 프로세서(210)에 의해 실행될 수 있다.
도 14를 참조하면, 동작 1401에서, 프로세서(210)는, 디스플레이(220)를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너들을 표시할 수 있다. 예를 들면, 상기 복수의 컨테이너들을 포함하는 상기 웹페이지는, 도 11의 제1 표현(1101)에 기반하여 표시되는 웹페이지에 대응할 수 있다. 예를 들어, 복수의 컨테이너들은 제1 컨테이너 또는 제2 컨테이너를 포함할 수 있다.
동작 1403에서, 프로세서(210)는, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 사용자(120)에 의해 착용된 웨어러블 장치(102)로부터 적어도 하나의 통신 회로(230)를 통해, 전자 장치(101)와 웨어러블 장치(102) 사이의 위치 관계를 나타내는 신호를 수신할 수 있다. 예를 들면, 상기 신호는, 도 5a의 상기 제3 신호일 수 있다. 예를 들면, 상기 신호는, 도 9의 이미지(903)에 대한 상기 정보일 수 있다. 하지만, 이에 제한되지 않는다.
동작 1405에서, 프로세서(210)는, 상기 신호가 나타내는 위치 관계가 전자 장치(101) 내에 등록된 복수의 기준 위치 관계들 중 제1 기준 위치 관계인지 또는 제2 기준 위치 관계인지 여부를 식별할 수 있다. 예를 들면, 상기 제1 기준 위치 관계는, 도 4의 제1 기준 위치 관계(410-1) 및/또는 제4 기준 위치 관계(410-4)에 대응할 수 있다. 예를 들면, 상기 제2 기준 위치 관계는, 도 4의 제2 기준 위치 관계(410-2), 제3 기준 위치 관계(410-3), 제5 기준 위치 관계(410-5), 및/또는 제6 기준 위치 관계(410-6)에 대응할 수 있다. 예를 들면, 상기 제2 기준 위치 관계는, 도 4의 제7 기준 위치 관계(410-7), 제8 기준 위치 관계(410-8), 및/또는 제9 기준 위치 관계(410-9)에 대응할 수 있다. 예를 들면, 상기 제2 기준 위치 관계는, 도 4의 제2 기준 위치 관계(410-2), 제3 기준 위치 관계(410-3), 제5 기준 위치 관계(410-5), 제6 기준 위치 관계(410-6), 제7 기준 위치 관계(410-7), 제8 기준 위치 관계(410-8), 및/또는 제9 기준 위치 관계(410-9)에 대응할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 프로세서(210)는, 상기 위치 관계가 상기 제1 기준 위치 관계인 조건 상에서, 동작 1407을 실행하고, 상기 위치 관계가 상기 제2 기준 위치 관계인 조건 상에서, 동작 1409를 실행할 수 있다.
동작 1407에서, 프로세서(210)는, 전자 장치(101) 내에 등록된 복수의 기준 위치 관계들 중 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여, 디스플레이(220)를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지할 수 있다. 예를 들면, 상기 위치 관계가 도 4의 제1 기준 위치 관계(410-1) 및/또는 제4 기준 위치 관계(410-4)에 대응할 시, 프로세서(210)는, 동작 1407을 실행할 수 있다. 예를 들면, 동작 1403에서 수신된 상기 신호가 상태(902) 내에서 획득된 이미지(903)를 포함할 시, 프로세서(210)는, 동작 1407을 실행할 수 있다. 하지만, 이에 제한되지 않는다.
동작 1409에서, 프로세서(210)는, 상기 복수의 기준 위치 관계들 중 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 디스플레이(220)를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시할 수 있다. 예를 들면, 상기 적어도 하나의 제2 컨테이너를 포함하는 상기 웹페이지는, 도 11의 제2 표현(1132) 또는 제3 표현(1163)에 기반하여 표시되는 웹페이지에 대응할 수 있다.
예를 들면, 상기 위치 관계가 도 4의 제2 기준 위치 관계(410-2), 제3 기준 위치 관계(410-3), 제5 기준 위치 관계(410-5), 및/또는 제6 기준 위치 관계(410-6)에 대응할 시, 프로세서(210)는, 동작 1409를 실행할 수 있다. 예를 들면, 상기 위치 관계가 도 4의 제7 기준 위치 관계(410-7), 제8 기준 위치 관계(410-8), 및/또는 제9 기준 위치 관계(410-9)에 대응할 시, 프로세서(210)는, 동작 1409를 실행할 수 있다. 예를 들면, 동작 1403에서 수신된 상기 신호가 상태(912) 내에서 획득된 이미지(913)를 포함하거나 상태(922) 내에서 획득된 이미지(923)를 포함할 시, 프로세서(210)는, 동작 1409를 실행할 수 있다.
예를 들면, 상기 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너의 사이즈는, 상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너의 사이즈보다 작을 수 있다.
예를 들면, 상기 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너 내의 시각적 객체의 사이즈는, 상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너 내의 상기 시각적 객체의 사이즈보다 작을 수 있다. 예를 들면, 상기 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너 내의 상기 시각적 객체는, 제1 해상도로 표시될 수 있고, 상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너 내의 상기 시각적 객체는, 상기 제1 해상도보다 낮은 제2 해상도로 표시될 수 있다.
예를 들면, 상기 적어도 하나의 제1 컨테이너 내의 상기 적어도 하나의 시각적 객체는, 텍스트일 수 있고, 상기 적어도 하나의 제2 컨테이너 내의 상기 적어도 하나의 시각적 객체는, 이미지 또는 동영상일 수 있다.
예를 들면, 상기 복수의 기준 위치 관계들은, 디스플레이(220)의 사이즈에 기반될 수 있다.
예를 들면, 상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시가 중단되는 상기 적어도 하나의 제1 컨테이너 내의 시각적 객체의 우선순위는, 상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시가 유지되는 상기 적어도 하나의 제2 컨테이너 내의 시각적 객체의 우선순위보다, 낮을 수 있다.
도 14 내에서 도시되지 않았으나, 전자 장치(101)는, 적어도 하나의 통신 회로(230)와 연결된 제1 안테나 및 적어도 하나의 통신 회로(230)와 연결되고, 상기 제1 안테나로부터 이격된 제2 안테나를 더 포함할 수 있다. 예를 들면, 프로세서(210)는, 상기 제1 안테나를 이용하여 적어도 하나의 통신 회로(230)를 통해 수신된 상기 신호 및 상기 제2 안테나를 이용하여 적어도 하나의 통신 회로(230)를 통해 수신된 상기 신호에 기반하여 전자 장치(101)로부터 웨어러블 장치(102)로의 방향과 기준 방향 사이의 각도를 식별함으로써, 상기 신호가 상기 제1 기준 위치 관계를 나타냄 또는 상기 신호가 상기 제2 기준 위치 관계를 나타냄을 식별할 수 있다.
예를 들면, 전자 장치(101)는, 프로세서(210)와 작동적으로 결합된 다른 통신 회로를 더 포함할 수 있다. 예를 들면, 프로세서(210)는, 디스플레이(220)를 통해, 상기 복수의 컨테이너들을 포함하는 상기 웹페이지와 함께, 적어도 하나의 실행가능한 객체를 표시할 수 있다. 예를 들면, 프로세서(210)는, 상기 적어도 하나의 실행가능한 객체가 상기 복수의 컨테이너들을 포함하는 상기 웹페이지와 함께 표시되는 동안, 웨어러블 장치(102)로부터 상기 다른 통신 회로를 통해, 웨어러블 장치(102)의 자세를 나타내는 다른(another) 신호를 수신할 수 있다. 예를 들면, 프로세서(210)는, 전자 장치(101) 내에 등록된 웨어러블 장치(102)의 복수의 기준 자세들 중 제1 기준 자세를 나타내는 상기 다른 신호에 기반하여, 상기 복수의 컨테이너들을 포함하는 상기 웹페이지와 함께 표시되는 상기 적어도 하나의 실행가능한 객체의 위치를 유지할 수 있다. 예를 들면, 프로세서(210)는, 상기 복수의 기준 자세들 중 상기 제1 기준 자세와 다른 제2 기준 자세를 나타내는 상기 다른 신호에 기반하여, 상기 복수의 컨테이너들을 포함하는 상기 웹페이지와 함께 표시되는 상기 적어도 하나의 실행가능한 객체의 위치를 변경할 수 있다.
예를 들면, 프로세서(210)는, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제2 컨테이너가 상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 상기 웹페이지 내에서 표시되는 동안, 웨어러블 장치(102)로부터 상기 다른 통신 회로를 통해, 웨어러블 장치(102)의 일부 상에 접촉된 터치 입력에 대한 정보를 수신할 수 있다. 예를 들면, 프로세서(210)는, 상기 정보에 응답하여, 상기 적어도 하나의 제2 컨테이너를 이동함으로써 상기 적어도 하나의 제2 컨테이너의 일부의 표시를 중단하고 상기 적어도 하나의 제1 컨테이너의 일부를 표시할 수 있다.
예를 들면, 프로세서(210)는, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 웨어러블 장치(102)로부터 상기 통신 회로를 통해 제1 신호를 수신할 수 있다. 예를 들면, 프로세서(210)는, 상기 제1 신호에 대한 응답 신호인 제2 신호를 상기 통신 회로를 통해 웨어러블 장치(102)에게 송신할 수 있다. 예를 들면, 프로세서(210)는, 상기 제2 신호에 응답하여 상기 웨어러블 장치로부터 송신되고, 상기 제1 신호가 웨어러블 장치(102)로부터 송신된 제1 시각(T1), 상기 제2 신호가 웨어러블 장치(102)에 수신된 제2 시각(T2), 및 상기 신호가 웨어러블 장치(103)로부터 송신된 제3 시각(T3)에 대한 데이터를 포함하는, 상기 신호를 상기 통신 회로를 통해 수신할 수 있다. 예를 들면, 프로세서(210)는, 제1 시각(T1), 제2 시각(T2), 제3 시각(T3), 상기 제1 신호가 전자 장치(101)에 수신된 제4 시각(T4), 상기 제2 신호가 전자 장치(101)로부터 송신된 제5 시각(T5), 및 상기 신호가 전자 장치(101)에 수신된 제6 시각(T6)에 기반하여 전자 장치(101)와 웨어러블 장치(102) 사이의 거리를 식별함으로써, 상기 신호가 상기 제1 기준 위치 관계를 나타냄 또는 상기 신호가 상기 제2 기준 위치 관계를 나타냄을 식별할 수 있다. 예를 들면, 프로세서(210)는, 웨어러블 장치(102)의 이동에 응답하여 웨어러블 장치(102)로부터 송신된 상기 제1 신호를 수신할 수 있다.
예를 들면, 프로세서(210)는, 상기 복수의 기준 위치 관계들 중 상기 제1 기준 위치 관계 및 상기 제2 기준 위치 관계와 다른 제3 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 적어도 하나의 제1 컨테이너 및 상기 적어도 하나의 제2 컨테이너의 일부를 표시하는 것을 중단함으로써, 디스플레이를(220)를 통해, 상기 웹페이지 내에서 상기 적어도 하나의 제2 컨테이너의 다른 일부를 표시할 수 있다. 예를 들면, 상기 제1 기준 위치 관계는, 상기 전자 장치와 상기 웨어러블 장치의 사이의 거리가 기준 거리 미만임 및 기준 방향과 상기 전자 장치로부터 상기 웨어러블 장치로의 방향 사이의 각도가 기준 각도 범위 내에 있음을 나타낼 수 있다. 예를 들면, 상기 제2 기준 위치 관계는, 상기 거리가 상기 기준 거리 미만임 및 상기 각도가 기준 각도 범위 밖에 있음을 나타낼 수 있다. 예를 들면, 상기 제3 기준 위치 관계는, 상기 거리가 상기 기준 거리 이상임을 나타낼 수 있다.
예를 들면, 프로세서(210)는, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 상기 사용자에 의해 착용되고 상기 웨어러블 장치와 쌍을 이루는(paired with) 다른 웨어러블 장치로부터 상기 통신 회로를 통해, 상기 전자 장치와 상기 다른 웨어러블 장치 사이의 위치 관계를 나타내는 다른 신호를 수신할 수 있다. 예를 들면, 프로세서(210)는, 상기 신호 및 상기 다른 신호가 상기 제1 기준 위치 관계를 나타냄을 식별하는 것에 기반하여, 상기 복수의 컨테이너들을 표시하는 것을 유지할 수 있다. 예를 들면, 프로세서(210)는, 상기 신호 및 상기 다른 신호가 상기 제2 기준 위치 관계를 나타냄을 식별하는 것에 기반하여, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제2 컨테이너를 표시할 수 있다.
예를 들면, 상기 신호는, 상기 웨어러블 장치의 카메라를 통해 획득될 수 있다. 예를 들면, 상기 신호는, 상기 복수의 컨테이너들을 포함하는 상기 웹페이지를 표시하는 상기 디스플레이에 대응하는 시각적 객체를 포함하는 이미지에 대한 정보를 포함할 수 있다. 예를 들면, 상기 위치 관계는, 상기 이미지 내에서의 상기 시각적 객체의 위치 및 사이즈에 기반하여, 식별될 수 있다.
도 15는 카메라를 통해 획득된 이미지에 기반하여 웹페이지를 적응적으로 표시하는 방법을 도시하는 흐름도이다. 상기 방법은, 전자 장치(101) 또는 프로세서(210)에 의해 실행될 수 있다.
도 15를 참조하면, 동작 1501에서, 디스플레이(220)를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너들을 표시할 수 있다. 예를 들면, 상기 복수의 컨테이너들을 포함하는 상기 웹페이지는, 도 11의 제1 표현(1101)에 기반하여 표시되는 웹페이지에 대응할 수 있다.
동작 1503에서, 프로세서(210)는, 상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 카메라(240)를 통해 디스플레이(220) 앞에 위치된 사용자에 대한 이미지를 획득할 수 있다. 예를 들면, 상기 이미지는, 이미지(1001), 이미지(1021), 또는 이미지(1041)에 대응할 수 있다.
동작 1505에서, 프로세서(210)는, 상기 이미지가 기준 사이즈 미만의 사이즈를 가지고 기준 영역 밖에 위치된 사용자를 표현하는지 여부를 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 이미지가 상기 기준 사이즈 미만의 사이즈를 가지고 상기 기준 영역 밖에 위치된 사용자를 표현하는 조건 상에서 동작 1509를 실행하고, 그렇지 않으면 동작 1507을 실행할 수 있다. 예를 들면, 프로세서(210)는, 이미지(1001)에 기반하여 동작 1507을 실행하고, 이미지(1021) 또는 이미지(1041)에 기반하여 동작 1509를 실행할 수 있다.
동작 1507에서, 프로세서(210)는, 기준 사이즈 이상의 사이즈를 가지고 기준 영역 안에 위치된 상기 사용자를 표현하는(represent) 상기 이미지에 기반하여, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지할 수 있다.
동작 1509에서, 프로세서(210)는, 상기 기준 사이즈 미만의 사이즈를 가지고 상기 기준 영역 밖에 위치된 상기 사용자를 표현하는 상기 이미지에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 디스플레이(220)를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시할 수 있다. 예를 들면, 상기 적어도 하나의 제2 컨테이너를 포함하는 상기 웹페이지는, 도 11의 제2 표현(1132) 또는 제3 표현(1163)에 기반하여 표시되는 웹페이지에 대응할 수 있다.
도 16은, 다양한 실시예들에 따른, 네트워크 환경(1600) 내의 전자 장치(1601)의 블록도이다. 도 16을 참조하면, 네트워크 환경(1600)에서 전자 장치(1601)는 제 1 네트워크(1698)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(1602)와 통신하거나, 또는 제 2 네트워크(1699)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(1604) 또는 서버(1608) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1601)는 서버(1608)를 통하여 전자 장치(1604)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(1601)는 프로세서(1620), 메모리(1630), 입력 모듈(1650), 음향 출력 모듈(1655), 디스플레이 모듈(1660), 오디오 모듈(1670), 센서 모듈(1676), 인터페이스(1677), 연결 단자(1678), 햅틱 모듈(1679), 카메라 모듈(1680), 전력 관리 모듈(1688), 배터리(1689), 통신 모듈(1690), 가입자 식별 모듈(1696), 또는 안테나 모듈(1697)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(1601)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(1678))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(1676), 카메라 모듈(1680), 또는 안테나 모듈(1697))은 하나의 구성요소(예: 디스플레이 모듈(1660))로 통합될 수 있다.
프로세서(1620)는, 예를 들면, 소프트웨어(예: 프로그램(1640))를 실행하여 프로세서(1620)에 연결된 전자 장치(1601)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(1620)는 다른 구성요소(예: 센서 모듈(1676) 또는 통신 모듈(1690))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1632)에 저장하고, 휘발성 메모리(1632)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(1634)에 저장할 수 있다. 일실시예에 따르면, 프로세서(1620)는 메인 프로세서(1621)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(1623)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(1601)가 메인 프로세서(1621) 및 보조 프로세서(1623)를 포함하는 경우, 보조 프로세서(1623)는 메인 프로세서(1621)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(1623)는 메인 프로세서(1621)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(1623)는, 예를 들면, 메인 프로세서(1621)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1621)를 대신하여, 또는 메인 프로세서(1621)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(1621)와 함께, 전자 장치(1601)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(1660), 센서 모듈(1676), 또는 통신 모듈(1690))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(1623)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(1680) 또는 통신 모듈(1690))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(1623)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(1601) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(1608))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(1630)는, 전자 장치(1601)의 적어도 하나의 구성요소(예: 프로세서(1620) 또는 센서 모듈(1676))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(1640)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(1630)는, 휘발성 메모리(1632) 또는 비휘발성 메모리(1634)를 포함할 수 있다.
프로그램(1640)은 메모리(1630)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(1642), 미들 웨어(1644) 또는 어플리케이션(1646)을 포함할 수 있다.
입력 모듈(1650)은, 전자 장치(1601)의 구성요소(예: 프로세서(1620))에 사용될 명령 또는 데이터를 전자 장치(1601)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(1650)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(1655)은 음향 신호를 전자 장치(1601)의 외부로 출력할 수 있다. 음향 출력 모듈(1655)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(1660)은 전자 장치(1601)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(1660)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(1660)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(1670)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(1670)은, 입력 모듈(1650)을 통해 소리를 획득하거나, 음향 출력 모듈(1655), 또는 전자 장치(1601)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1602))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(1676)은 전자 장치(1601)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(1676)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(1677)는 전자 장치(1601)가 외부 전자 장치(예: 전자 장치(1602))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(1677)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(1678)는, 그를 통해서 전자 장치(1601)가 외부 전자 장치(예: 전자 장치(1602))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(1678)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(1679)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(1679)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(1680)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(1680)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(1688)은 전자 장치(1601)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(1688)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(1689)는 전자 장치(1601)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(1689)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(1690)은 전자 장치(1601)와 외부 전자 장치(예: 전자 장치(1602), 전자 장치(1604), 또는 서버(1608)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1690)은 프로세서(1620)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(1690)은 무선 통신 모듈(1692)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1694)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(1698)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(1699)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(1604)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(1692)은 가입자 식별 모듈(1696)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(1698) 또는 제 2 네트워크(1699)와 같은 통신 네트워크 내에서 전자 장치(1601)를 확인 또는 인증할 수 있다.
무선 통신 모듈(1692)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(1692)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(1692)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(1692)은 전자 장치(1601), 외부 전자 장치(예: 전자 장치(1604)) 또는 네트워크 시스템(예: 제 2 네트워크(1699))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(1692)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(1697)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(1697)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(1697)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(1698) 또는 제 2 네트워크(1699)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(1690)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(1690)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(1697)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(1697)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(1699)에 연결된 서버(1608)를 통해서 전자 장치(1601)와 외부의 전자 장치(1604)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(1602, 또는 1604) 각각은 전자 장치(1601)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(1601)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(1602, 1604, 또는 1608) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(1601)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(1601)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(1601)로 전달할 수 있다. 전자 장치(1601)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(1601)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(1604)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(1608)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(1604) 또는 서버(1608)는 제 2 네트워크(1699) 내에 포함될 수 있다. 전자 장치(1601)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(1601)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1636) 또는 외장 메모리(1638))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1640))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(1601))의 프로세서(예: 프로세서(1620))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치(electronic device)(101)에 있어서,
    통신 회로;
    디스플레이(220); 및
    상기 통신 회로 및 상기 디스플레이(220)와 작동적으로 결합된 프로세서(210)를 포함하고,
    상기 프로세서(210)는,
    상기 디스플레이(220)를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너(container)들을 표시하고,
    상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 사용자에 의해 착용된 상기 웨어러블 장치(102)로부터 상기 통신 회로를 통해, 상기 전자 장치(101)와 상기 웨어러블 장치(102) 사이의 위치 관계를 나타내는 신호를 수신하고,
    상기 전자 장치(101) 내에 등록된 복수의 기준 위치 관계들 중 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 디스플레이(220)를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지하고,
    상기 복수의 기준 위치 관계들 중 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 상기 디스플레이(220)를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시하도록, 구성되는,
    전자 장치(101).
  2. 청구항 1에 있어서, 상기 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너의 사이즈는,
    상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너의 사이즈보다 작은,
    전자 장치(101).
  3. 청구항 1에 있어서, 상기 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너 내의 시각적 객체의 사이즈는,
    상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너 내의 상기 시각적 객체의 사이즈보다 작은,
    전자 장치(101).
  4. 청구항 3에 있어서, 상기 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너 내의 상기 시각적 객체는,
    제1 해상도로 표시되고,
    상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 표시되는 상기 적어도 하나의 제2 컨테이너 내의 상기 시각적 객체는,
    상기 제1 해상도보다 낮은 제2 해상도로 표시되는,
    전자 장치(101).
  5. 청구항 1에 있어서,
    상기 통신 회로와 연결된 제1 안테나; 및
    상기 통신 회로와 연결되고, 상기 제1 안테나로부터 이격된 제2 안테나를 더 포함하고,
    상기 프로세서(210)는,
    상기 제1 안테나를 이용하여 상기 통신 회로를 통해 수신된 상기 신호 및 상기 제2 안테나를 이용하여 상기 통신 회로를 통해 수신된 상기 신호에 기반하여 상기 전자 장치(101)로부터 상기 웨어러블 장치(102)로의 방향과 기준 방향 사이의 각도를 식별함으로써, 상기 신호가 상기 제1 기준 위치 관계를 나타냄 또는 상기 신호가 상기 제2 기준 위치 관계를 나타냄을 식별하도록, 구성되는,
    전자 장치(101).
  6. 청구항 1에 있어서, 상기 적어도 하나의 제1 컨테이너 내의 상기 적어도 하나의 시각적 객체는,
    텍스트이고,
    상기 적어도 하나의 제2 컨테이너 내의 상기 적어도 하나의 시각적 객체는,
    이미지 또는 동영상인,
    전자 장치(101).
  7. 청구항 1에 있어서,
    상기 프로세서(210)와 작동적으로 결합된 다른 통신 회로를 더 포함하고,
    상기 프로세서(210)는,
    상기 디스플레이(220)를 통해, 상기 복수의 컨테이너들을 포함하는 상기 웹페이지와 함께, 적어도 하나의 실행가능한 객체를 표시하고,
    상기 적어도 하나의 실행가능한 객체가 상기 복수의 컨테이너들을 포함하는 상기 웹페이지와 함께 표시되는 동안, 상기 웨어러블 장치(102)로부터 상기 다른 통신 회로를 통해, 상기 웨어러블 장치(102)의 자세를 나타내는 다른(another) 신호를 수신하고,
    상기 전자 장치(101) 내에 등록된 상기 웨어러블 장치(102)의 복수의 기준 자세들 중 제1 기준 자세를 나타내는 상기 다른 신호에 기반하여, 상기 복수의 컨테이너들을 포함하는 상기 웹페이지와 함께 표시되는 상기 적어도 하나의 실행가능한 객체의 위치를 유지하고,
    상기 복수의 기준 자세들 중 상기 제1 기준 자세와 다른 제2 기준 자세를 나타내는 상기 다른 신호에 기반하여, 상기 복수의 컨테이너들을 포함하는 상기 웹페이지와 함께 표시되는 상기 적어도 하나의 실행가능한 객체의 위치를 변경하도록, 구성되는,
    전자 장치(101).
  8. 청구항 1에 있어서, 상기 프로세서(210)는,
    상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 상기 웨어러블 장치(102)로부터 상기 통신 회로를 통해 제1 신호를 수신하고,
    상기 제1 신호에 대한 응답 신호인 제2 신호를 상기 통신 회로를 통해 상기 웨어러블 장치(102)에게 송신하고,
    상기 제2 신호에 응답하여 상기 웨어러블 장치(102)로부터 송신되고, 상기 제1 신호가 상기 웨어러블 장치(102)로부터 송신된 제1 시각, 상기 제2 신호가 상기 웨어러블 장치(102)에 수신된 제2 시각, 및 상기 신호가 상기 웨어러블 장치(102)로부터 송신된 제3 시각에 대한 데이터를 포함하는, 상기 신호를 상기 통신 회로를 통해 수신하고,
    상기 제1 시각, 상기 제2 시각, 상기 제3 시각, 상기 제1 신호가 상기 전자 장치(101)에 수신된 제4 시각, 상기 제2 신호가 상기 전자 장치(101)로부터 송신된 제5 시각, 및 상기 신호가 상기 전자 장치(101)에 수신된 제6 시각에 기반하여 상기 전자 장치(101)와 상기 웨어러블 장치(102) 사이의 거리를 식별함으로써, 상기 신호가 상기 제1 기준 위치 관계를 나타냄 또는 상기 신호가 상기 제2 기준 위치 관계를 나타냄을 식별하도록, 구성되는,
    전자 장치(101).
  9. 청구항 8에 있어서, 상기 프로세서(210)는,
    상기 웨어러블 장치(102)의 이동에 응답하여 상기 웨어러블 장치(102)로부터 송신된 상기 제1 신호를 수신하도록, 구성되는,
    전자 장치(101).
  10. 청구항 1에 있어서, 상기 복수의 기준 위치 관계들은,
    상기 디스플레이(220)의 사이즈에 기반되는,
    전자 장치(101).
  11. 청구항 1에 있어서,
    상기 프로세서(210)와 작동적으로 결합된 다른 통신 회로를 더 포함하고,
    상기 프로세서(210)는,
    상기 복수의 컨테이너들 중 상기 적어도 하나의 제2 컨테이너가 상기 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여 상기 웹페이지 내에서 표시되는 동안, 상기 웨어러블 장치(102)로부터 상기 다른 통신 회로를 통해, 상기 웨어러블 장치(102)의 일부 상에 접촉된 터치 입력에 대한 정보를 수신하고,
    상기 정보에 응답하여, 상기 적어도 하나의 제2 컨테이너를 이동함으로써 상기 적어도 하나의 제2 컨테이너의 일부의 표시를 중단하고 상기 적어도 하나의 제1 컨테이너의 일부를 표시하도록, 더 구성되는,
    전자 장치(101).
  12. 청구항 1에 있어서, 상기 프로세서(210)는,
    상기 복수의 기준 위치 관계들 중 상기 제1 기준 위치 관계 및 상기 제2 기준 위치 관계와 다른 제3 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 적어도 하나의 제1 컨테이너 및 상기 적어도 하나의 제2 컨테이너의 일부를 표시하는 것을 중단함으로써, 상기 디스플레이(220)를 통해, 상기 웹페이지 내에서 상기 적어도 하나의 제2 컨테이너의 다른 일부를 표시하도록, 더 구성되고,
    상기 제1 기준 위치 관계는,
    상기 전자 장치(101)와 상기 웨어러블 장치(102)의 사이의 거리가 기준 거리 미만임 및 기준 방향과 상기 전자 장치(101)로부터 상기 웨어러블 장치(102)로의 방향 사이의 각도가 기준 각도 범위 내에 있음을 나타내고,
    상기 제2 기준 위치 관계는,
    상기 거리가 상기 기준 거리 미만임 및 상기 각도가 기준 각도 범위 밖에 있음을 나타내고,
    상기 제3 기준 위치 관계는,
    상기 거리가 상기 기준 거리 이상임을 나타내는,
    전자 장치(101).
  13. 청구항 1에 있어서, 상기 프로세서(210)는,
    상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 상기 사용자에 의해 착용되고 상기 웨어러블 장치(102)와 쌍을 이루는(paired with) 다른 웨어러블 장치(102)로부터 상기 통신 회로를 통해, 상기 전자 장치(101)와 상기 다른 웨어러블 장치(102) 사이의 위치 관계를 나타내는 다른 신호를 수신하고,
    상기 신호 및 상기 다른 신호가 상기 제1 기준 위치 관계를 나타냄을 식별하는 것에 기반하여, 상기 복수의 컨테이너들을 표시하는 것을 유지하고,
    상기 신호 및 상기 다른 신호가 상기 제2 기준 위치 관계를 나타냄을 식별하는 것에 기반하여, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제2 컨테이너를 표시하도록, 구성되는,
    전자 장치(101).
  14. 청구항 1에 있어서, 상기 신호는,
    상기 웨어러블 장치(102)의 카메라를 통해 획득되고,
    상기 복수의 컨테이너들을 포함하는 상기 웹페이지를 표시하는 상기 디스플레이(220)에 대응하는 시각적 객체를 포함하는 이미지에 대한 정보를 포함하고,
    상기 위치 관계는,
    상기 이미지 내에서의 상기 시각적 객체의 위치 및 사이즈에 기반하여, 식별되는,
    전자 장치(101).
  15. 통신 회로 및 디스플레이(220)를 포함하는 전자 장치(101) 내에서 실행되는 방법에 있어서,
    상기 디스플레이(220)를 통해, 웹페이지 내에서, 적어도 하나의 시각적 객체를 각각 포함하는 복수의 컨테이너(container)들을 표시하는 동작과,
    상기 복수의 컨테이너들이 상기 웹페이지 내에서 표시되는 동안, 사용자에 의해 착용된 상기 웨어러블 장치(102)로부터 상기 통신 회로를 통해, 상기 전자 장치(101)와 상기 웨어러블 장치(102) 사이의 위치 관계를 나타내는 신호를 수신하는 동작과,
    상기 전자 장치(101) 내에 등록된 복수의 기준 위치 관계들 중 제1 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 디스플레이(220)를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들을 표시하는 것을 유지하는 동작과,
    상기 복수의 기준 위치 관계들 중 제2 기준 위치 관계를 나타내는 상기 신호에 기반하여, 상기 복수의 컨테이너들 중 적어도 하나의 제1 컨테이너를 표시하는 것을 중단함으로써, 상기 디스플레이(220)를 통해, 상기 웹페이지 내에서, 상기 복수의 컨테이너들 중 상기 적어도 하나의 제1 컨테이너와 다른 적어도 하나의 제2 컨테이너를 표시하는 동작을 포함하는,
    방법.
PCT/KR2023/012610 2022-09-15 2023-08-24 웹페이지를 적응적으로 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 WO2024058458A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220116704 2022-09-15
KR10-2022-0116704 2022-09-15
KR10-2022-0130985 2022-10-12
KR1020220130985A KR20240037790A (ko) 2022-09-15 2022-10-12 웹페이지를 적응적으로 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Publications (1)

Publication Number Publication Date
WO2024058458A1 true WO2024058458A1 (ko) 2024-03-21

Family

ID=90275185

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/012610 WO2024058458A1 (ko) 2022-09-15 2023-08-24 웹페이지를 적응적으로 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Country Status (1)

Country Link
WO (1) WO2024058458A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120051209A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
KR20140114545A (ko) * 2013-03-18 2014-09-29 엘지전자 주식회사 3d 디스플레이 디바이스 장치 및 제어 방법
KR20150001433A (ko) * 2013-06-27 2015-01-06 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
KR20160074228A (ko) * 2014-12-18 2016-06-28 주식회사 생명과기술 3d 디스플레이의 시역거리 계측 장치 및 계측 방법
KR102355195B1 (ko) * 2020-09-25 2022-02-07 충북대학교 산학협력단 레이어가 구분된 디지털 광고 출력장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120051209A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
KR20140114545A (ko) * 2013-03-18 2014-09-29 엘지전자 주식회사 3d 디스플레이 디바이스 장치 및 제어 방법
KR20150001433A (ko) * 2013-06-27 2015-01-06 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
KR20160074228A (ko) * 2014-12-18 2016-06-28 주식회사 생명과기술 3d 디스플레이의 시역거리 계측 장치 및 계측 방법
KR102355195B1 (ko) * 2020-09-25 2022-02-07 충북대학교 산학협력단 레이어가 구분된 디지털 광고 출력장치

Similar Documents

Publication Publication Date Title
WO2022097862A1 (en) Method of controlling display and electronic device supporting the same
WO2022085961A1 (ko) 컨텐츠를 출력하는 전자 장치 및 전자 장치의 동작 방법
WO2023008854A1 (ko) 디스플레이 내장형 광학 센서를 포함하는 전자 장치
WO2022010279A1 (en) Electronic device for converting handwriting to text and method therefor
WO2022154440A1 (ko) 오디오 데이터를 처리하는 전자 장치 및 그 동작 방법
WO2022045579A1 (ko) 외부 장치의 위치를 보정하기 위한 전자 장치 및 그의 동작 방법
WO2024058458A1 (ko) 웹페이지를 적응적으로 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2024063380A1 (ko) 플렉서블 디스플레이에 표시되는 화면을 제어하기 위한 전자 장치 및 방법
WO2024158269A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 접힘 상태 또는 펼침 상태를 확인하는 방법
WO2024080553A1 (ko) 전자 장치 및 그 동작 방법
WO2024034810A1 (ko) 다중 윈도우들을 위한 입력을 처리하는 전자 장치
WO2024025082A1 (ko) 플렉서블 디스플레이를 통해 화면을 표시하기 위한 전자 장치 및 방법
WO2024063564A1 (ko) 폴더블 전자 장치 및 폴더블 전자 장치의 동작 방법
WO2024014686A1 (ko) 외부 객체의 접촉을 처리하는 터치 회로를 포함하는 디스플레이를 포함하는 전자 장치
WO2024155171A1 (ko) 조작 입력을 전송하는 헤드 마운트 장치 및 그의 동작 방법
WO2022149695A1 (ko) 듀얼 디바이스와, 상기 듀얼 디바이스를 연결하는 연결 장치를 포함하는 전자 장치
WO2024063364A1 (ko) 전자 장치 및 그 전자 장치의 제어 방법
WO2024034838A1 (ko) 복수의 디스플레이들을 통해 화면을 표시하기 위한 전자 장치 및 방법
WO2024135877A1 (ko) 복수의 시각적 객체들 중 시각적 객체를 식별하기 위한 전자 장치 및 방법
WO2024039000A1 (ko) 가상 공간을 제공하기 위한 전자 장치 및 컴퓨터 판독가능 저장 매체
WO2024085550A1 (ko) 가상 장치의 디스플레이의 제어를 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2024158181A1 (ko) 문서 편집을 위한 시스템, 전자 장치 및 상기 전자 장치에서 문서 편집을 위한 방법
WO2024167174A1 (ko) 컨트롤러 장치 및 웨어러블 전자 장치를 이용한 컨트롤러 장치 추적 방법
WO2024080680A1 (ko) 상황 특정 설정을 위한 사용자 인터페이스를 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2024029740A1 (ko) 입력 장치를 이용하여 드로잉 데이터를 출력하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23865757

Country of ref document: EP

Kind code of ref document: A1