WO2020004758A1 - 사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하는 전자 장치 및 그에 관한 방법 - Google Patents

사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하는 전자 장치 및 그에 관한 방법 Download PDF

Info

Publication number
WO2020004758A1
WO2020004758A1 PCT/KR2019/000822 KR2019000822W WO2020004758A1 WO 2020004758 A1 WO2020004758 A1 WO 2020004758A1 KR 2019000822 W KR2019000822 W KR 2019000822W WO 2020004758 A1 WO2020004758 A1 WO 2020004758A1
Authority
WO
WIPO (PCT)
Prior art keywords
output
light
electronic device
output devices
distance
Prior art date
Application number
PCT/KR2019/000822
Other languages
English (en)
French (fr)
Inventor
이영배
김민욱
김태균
이우성
김승년
윤용상
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/256,460 priority Critical patent/US11432389B2/en
Priority to CN201980042722.4A priority patent/CN112400082B/zh
Priority to EP19826842.7A priority patent/EP3795898B1/en
Publication of WO2020004758A1 publication Critical patent/WO2020004758A1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V33/00Structural combinations of lighting devices with other articles, not otherwise provided for
    • F21V33/0004Personal or domestic articles
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • F21V23/0471Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B45/00Circuit arrangements for operating light-emitting diodes [LED]
    • H05B45/10Controlling the intensity of the light
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B45/00Circuit arrangements for operating light-emitting diodes [LED]
    • H05B45/20Controlling the colour of the light
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO THE FORM OR THE KIND OF THE LIGHT SOURCES OR OF THE COLOUR OF THE LIGHT EMITTED
    • F21Y2103/00Elongate light sources, e.g. fluorescent tubes
    • F21Y2103/20Elongate light sources, e.g. fluorescent tubes of polygonal shape, e.g. square or rectangular
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO THE FORM OR THE KIND OF THE LIGHT SOURCES OR OF THE COLOUR OF THE LIGHT EMITTED
    • F21Y2103/00Elongate light sources, e.g. fluorescent tubes
    • F21Y2103/30Elongate light sources, e.g. fluorescent tubes curved
    • F21Y2103/33Elongate light sources, e.g. fluorescent tubes curved annular
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO THE FORM OR THE KIND OF THE LIGHT SOURCES OR OF THE COLOUR OF THE LIGHT EMITTED
    • F21Y2113/00Combination of light sources
    • F21Y2113/10Combination of light sources of different colours
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO THE FORM OR THE KIND OF THE LIGHT SOURCES OR OF THE COLOUR OF THE LIGHT EMITTED
    • F21Y2115/00Light-generating elements of semiconductor light sources
    • F21Y2115/10Light-emitting diodes [LED]

Definitions

  • Various embodiments disclosed herein relate to an electronic device and a method thereof for providing a visual effect using a light emitting device based on a location of a user.
  • AI artificial intelligence
  • the user can receive information desired by the user through the electronic device without being limited to time and place.
  • a user may search for information while on the go through a portable device such as a smartphone, and search for information through an electronic device installed indoors such as a home or an office.
  • the electronic device may provide the user with a user experience (UX) such as the user interacts with the electronic device.
  • UX user experience
  • Electronic devices disposed indoors may frequently operate away from a user in a fixed position. If the electronic device does not respond even if the user of the electronic device enters within a certain distance, the user may not know whether the electronic device is operating. Therefore, the electronic device measures the user's position and according to the measured position. You need to provide information.
  • an electronic device may include a housing, a plurality of output devices that are visually exposed through a portion of the housing and disposed at different positions, located in the housing, and the plurality of output devices. At least one sensor disposed in a position adjacent to the disposed position, and a processor located in the housing and operatively connected to the plurality of output devices and the at least one sensor, wherein the processor comprises: the at least one Obtaining a plurality of first distance values between the plurality of output devices and the object through a first signal output using a sensor of at least one of the plurality of first distance values, and belonging to at least one of a first specified range of distance values Outputting light through at least one first output device selected from among the plurality of output devices based on one first distance value And detecting the movement of the object after the light is output, and in response to detecting the movement, through the second signal output by using the at least one sensor, the plurality of output devices and the Obtain a plurality of second distance values between objects, and based
  • a method of an electronic device includes obtaining a plurality of first distance values between a plurality of output devices and an object included in the electronic device, wherein the plurality of first distance values are included in the electronic device. Outputting light through at least one first output device selected from the plurality of output devices based on at least one first distance value belonging to a distance value of a first specified range, the object after the light is output In response to the position of the at least one being changed, obtaining a plurality of second distance values between the plurality of output devices and the object, and at least one second distance belonging to a value of a second specified range of the plurality of second distance values.
  • the method may include outputting light through at least one second output device selected from among the plurality of output devices.
  • An electronic device includes a sensor, a plurality of light emitting devices, and a processor, wherein the processor senses a distance and a direction from an external object using the sensor, and detects the external object. Designating a first light emitting device group corresponding to a direction of the external object among the plurality of light emitting devices, and based at least on the distance to the external object or the direction of the external object, Information related to the external object may be set to be output using the first light emitting device group.
  • the electronic device may provide a visual effect according to the position of the object to provide a user experience such as the user interacting with the electronic device even when the user is away from the electronic device.
  • the electronic device may distinguish the positions of the plurality of objects and provide different visual effects through a more accurate positioning technique.
  • the electronic device may receive a more precise input (eg, voice command) from the user by providing a visual effect corresponding to the location of the user.
  • a more precise input eg, voice command
  • 1A is an exemplary diagram illustrating an operation of outputting light based on a position of an object according to various embodiments of the present disclosure.
  • 1B is a diagram illustrating another operation of outputting light based on a position of an object according to various embodiments of the present disclosure.
  • 1C is an exemplary diagram illustrating another operation of outputting light based on a position of an object according to various embodiments of the present disclosure.
  • 2A is a flowchart illustrating an operation of an electronic device that outputs light based on a location of an object according to various embodiments of the present disclosure.
  • 2B is a flowchart illustrating an operation of an electronic device that outputs information associated with an object based on the location or direction of the object, according to various embodiments of the present disclosure.
  • FIG. 3 is a block diagram of an electronic device that outputs light based on a position of an object according to various embodiments of the present disclosure.
  • FIG. 4 is an exemplary diagram illustrating an operation of measuring the position of an object using an ultra wide band (UWB) technology according to various embodiments.
  • UWB ultra wide band
  • FIG. 5 illustrates a sensor module and a plurality of output devices according to various embodiments.
  • FIG. 6 is an exemplary diagram illustrating an operation of adjusting a color of light based on a position of an object according to various embodiments of the present disclosure.
  • FIG. 7 is an exemplary diagram illustrating an operation of adjusting the number of output devices, the brightness of light of a plurality of output devices, and a color based on the position of an object according to various embodiments of the present disclosure.
  • FIG. 8 is an exemplary diagram illustrating an operation of outputting light based on positions of a plurality of objects according to various embodiments of the present disclosure.
  • FIG. 9 is a flowchart illustrating an operation of an electronic device that outputs light based on locations of a plurality of objects according to various embodiments of the present disclosure.
  • FIG. 10 is an exemplary diagram illustrating an operation of changing a color of light based on positions of a plurality of objects according to various embodiments of the present disclosure.
  • 11 is a diagram illustrating an operation of outputting light based on a distance value and a threshold distance according to various embodiments.
  • FIG. 12 is a flowchart illustrating an operation of an electronic device that outputs light based on a distance value and a threshold distance according to various embodiments of the present disclosure.
  • FIG. 13 is a block diagram of an electronic device in a network environment that provides a visual effect using a light emitting device based on a location of a user according to various embodiments of the present disclosure.
  • 1A to 1C are exemplary views illustrating an operation of outputting light based on the position of the object 200 according to various embodiments.
  • 1A to 1C may refer to a view of the electronic device 101 and the object 200 viewed from the top.
  • the object 200 in the network environment 1 may mean a user of the electronic device 101.
  • the object 200 may include, in addition to the user, one or more other targets in which movement can be detected by the electronic device 101.
  • the electronic device 101 may be an AI speaker.
  • the electronic device 101 may include at least one of a display device, a smartphone, a computer device, a portable medical device, a camera, a wearable device, or a home appliance.
  • the electronic device 101 may include a housing 105 and a plurality of output devices 110-1, 110-2, 110-3,..., 110 -M (M is a natural number).
  • the electronic device 101 may further include a sensor module (not shown) configured to measure the position of the object 200.
  • the sensor module may be disposed inside or outside the electronic device 101. An embodiment of measuring the position of the user through the sensor module is described in more detail with reference to FIG. 4.
  • At least a portion of the housing 105 may have a circular shape to provide a visual effect to the user in all directions.
  • at least a portion of the housing 105 may have a straight, triangular, square, rectangular, polygonal, or elliptical shape when viewed from the top of the electronic device 101.
  • the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M are visually exposed through a portion from the housing 105 and are different from each other. May be placed in position.
  • the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M may be disposed at a constant angle, thereby providing a 360 degree angle. Can be formed.
  • the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M may output light.
  • the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M may include a light emitting diode (LED) or a light emitting device such as a light bulb.
  • at least some of the plurality of output devices may include a sound output device configured to provide an auditory effect.
  • the electronic device 101 measures a position of the object 200 through a sensor module (not shown), and based on the position of the object 200, the plurality of output devices 110-1 and 110. -2, 110-3, ...., 110-M) can output light.
  • the location of the object 200 may include, for example, a distance between the electronic device 101 and the object 200 or a direction of the object 200 with respect to the electronic device 101.
  • the location of the object 200 may be a distance or a direction between the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M and the object 200. It may include.
  • the electronic device 101 may, for example, measure a distance through a passive infra-red (PIR) sensor using heat generated by a human body, a motion detection sensor such as a thermopile, a distance sensor using infrared or ultrasonic waves, and an image.
  • PIR passive infra-red
  • the position of the object 200 may be measured using at least one of a camera sensor to be measured or a radar sensor that analyzes a reflected signal after outputting a radio frequency (RF) signal.
  • RF radio frequency
  • the electronic device 101 may measure the location of the object 200 based on an ultra wide band (UWB) technology.
  • UWB ultra wide band
  • the electronic device 101 obtains a first distance value between the electronic device 101 and the object 200 located at the first location 2001 through a sensor module and generates a first distance value. It can output light based on 1 distance value.
  • the electronic device 101 may detect respective first distance values between the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M and the object 200. Can be obtained through the module.
  • the electronic device 101 may output light through at least one first output device (for example, the output device 110-1) belonging to the distance value of the first specified range among the first distance values.
  • the object 200 does not substantially change the direction and the second position 200-where the distance value with the electronic device 101 is changed.
  • the electronic device 101 may include the object 200 located at the second location 200-2 and the electronic device 101 (or the plurality of output devices 110-1, 110-2, 110-3,... .., 110-M)) second distance values may be obtained through the sensor module.
  • the second distance value may increase or decrease than the first distance value. If the second distance value is smaller than the first distance value, the electronic device 101 outputs light without changing the output device (eg, 110-1) disposed at the center among the light outputting devices. The number of can be increased. For example, as shown in FIG.
  • the electronic device 101 that outputs light through one output device (eg, 110-1) outputs the second distance value based on a smaller value than the first distance value.
  • Output light through a plurality of output devices eg, 110-1, 110-2, 110-3, 110-4, 110-5, 110-6, 110-7) including device 110-1 can do.
  • the electronic device 101 may reduce the number of output devices that output light.
  • the object 200 may change direction and move to the third location 200-3. have.
  • the electronic device 101 may include the object 200 located at the third location 200-3 and the electronic device 101 (or the plurality of output devices 110-1, 110-2, 110-3 ...
  • the second distance value between .., 110-M)) may be obtained through the sensor module. Since the object 200 moves in a different direction, an output device (that is, an output device having the smallest second distance value) facing the object 200 in front of the object 200 may be output from the output device 110-1. 10).
  • the electronic device 101 may change the output device that outputs light to the output device 110-10 having the smallest second distance value without changing the number of output devices that output light.
  • the object 200 moves to a fourth position 200-4 in which a direction and a distance are changed. I can move it.
  • the electronic device 101 includes the object 200 located at the fourth position 200-4 and the electronic device 101 (or the plurality of output devices 110-1, 110-2, 110-3,...
  • the second distance value between .., 110-M)) may be obtained through the sensor module. Since the object 200 moves by changing a direction and a distance, an output device (that is, an output device having the smallest second distance value) facing the object 200 in front is selected from the output device 110-1. 110-10) and the second distance value may increase or decrease than the first distance value.
  • the electronic device 101 may change the number of output devices that output the smallest second distance value and the output devices that output light. For example, in response to the position of the object 200 being changed to the fourth position 200-4, the electronic device 101 may include a plurality of output devices (eg, 110) including the output device 110-10. -10, 110-11, 110-12, 110-13, 110-14, 110-15, 110-16) to output the light.
  • a plurality of output devices eg, 110
  • the electronic device 101 may provide different visual effects in response to the movement of the user, thereby providing a user experience such as the user interacting with the electronic device 101.
  • the electronic device 101 since the user may view a visual effect provided from the electronic device 101 and provide a user input (for example, a voice command), the electronic device 101 receives the user input with directionality such as beamforming. In this case, the electronic device 101 may receive a user input more precisely.
  • FIG. 2A is a flowchart illustrating an operation of an electronic device 101 that outputs light based on a location of an object 200, according to various embodiments.
  • the operations illustrated in FIG. 2A may be performed by the electronic device 101 or a component (for example, the processor 120 of FIG. 3) of the electronic device 101.
  • the electronic device 101 may obtain a first distance value between the object 200 and the electronic device 101.
  • the first distance value may mean, for example, distance values between the plurality of output devices 110-1, 110-2,..., 110 -M and the object 200.
  • the electronic device 101 may obtain a distance value by using a sensor module disposed outside or inside the electronic device 101. For example, when the electronic device 101 obtains a distance value by using a wireless signal, the electronic device 101 may select at least one of a time when the signal output from the sensor module is reflected and return, or a direction in which the signal is output. Based on the location of the object 220 may be determined.
  • the electronic device 101 may output light through at least one first output device determined based on the first distance value. For example, the electronic device 101 may determine first distance values between the plurality of output devices 110-1, 110-2,..., 110 -M and the object 200. The electronic device 101 determines at least one first distance value belonging to a distance value of a first specified range of the first distance values, and determines at least one first output device corresponding to the determined at least one first distance value. You can output light through.
  • the electronic device 101 may acquire a second distance value between the object 200 whose position is changed after the light is output and the electronic device 101.
  • the second distance values may mean respective distance values between the object 200 and the plurality of output devices 110-1, 110-2,..., 110 -M.
  • the electronic device 101 may obtain the second distance value in the same or similar manner to operation 205.
  • the electronic device 101 may output light through at least one second output device determined based on the second distance value. For example, the electronic device 101 may determine second distance values between the plurality of output devices 110-1, 110-2,..., 110 -M and the object 200 whose position is changed. The electronic device 101 determines at least one second distance value belonging to a distance value of a second specified range among the second distance values, and determines at least one second output device corresponding to the determined at least one second distance value. You can output light through.
  • the distance value of the second specified range may be the same or at least partially different from the distance value of the first specified range.
  • the electronic device 101 may increase the number of output devices that output light.
  • the electronic device 101 may change the color or brightness of light based on the second distance value and the first distance value. For example, the electronic device 101 may control the light color to change to a red color as the second distance value is smaller, and to change the light color to a blue color as the second distance value is increased.
  • 2B is a flowchart illustrating an operation of an electronic device 101 that outputs information associated with an object based on the location or direction of the object 200, according to various embodiments.
  • the electronic device 101 may detect a distance and a direction from the object 200.
  • the electronic device 101 may measure the position of the object 200 using at least one of a PIR sensor, a motion sensor, a distance sensor, a camera sensor, or a radar sensor.
  • a PIR sensor e.g., a Bosch Sensortec BMA150
  • the sensor can be placed in a location adjacent to the plurality of output devices 110-1, 110-2,..., 110 -M.
  • the electronic device 101 may include a display.
  • some of the plurality of output devices may output light according to an exemplary embodiment through driving of pixels (drive of OLED or driving of micro LEDs) disposed in the display.
  • the electronic device 101 may determine the first output device according to the distance and the direction.
  • the electronic device 101 may correspond to the direction of the object 200 among the plurality of output devices 110-1, 110-2,..., 110 -M according to the distance from the object 200.
  • the first output device group (or first light emitting device group) may be determined.
  • the electronic device 101 may output information related to the object 200 using the first output device group.
  • Information associated with the object 200 may include, for example, light, sound, or vibration.
  • the electronic device 101 may determine at least one of the number of output devices included in the first output device group, the color of information related to the object 200, or the output intensity according to the distance from the object 200. Can be controlled.
  • FIG. 3 is a block diagram of an electronic device 101 that outputs light based on a location of an object 200, according to various embodiments.
  • the electronic device 101 includes a housing 105, a sensor module 176, a processor 120, a plurality of output devices 110-1, 110-2,..., 110 -M, and And / or memory 130.
  • the electronic device 101 may omit at least one of the elements illustrated in FIG. 2 or may further include at least one other element.
  • the electronic device 101 may omit the memory 130.
  • the electronic device 101 may further include at least one of the components of FIG. 13.
  • the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M may be arranged to be visually exposed through a part of the housing 105.
  • the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M may be disposed inside the housing 105.
  • the housing 105 may include a material through which light output from the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M passes.
  • the sensor module 176 may include at least one sensor.
  • the sensor module 176 may be mounted inside the electronic device 101 or disposed outside the electronic device 101.
  • the sensor module 176 may include a plurality of output devices 110-1, 110-2, 110-3,..., 110-M.
  • the electronic device 101 is disposed at a location adjacent to the electronic device 101, and the output device 110-1 is disposed at a location adjacent to the sensor module 176 based on a distance value between the sensor module 176 and the object 200.
  • 110-2, 110-3,..., 110 -M) and the distance value between the object 200 may be obtained.
  • the sensor module 176 may obtain a distance value between the object 200 and the sensor module 176 using, for example, ultra wide band (UWB) technology.
  • UWB ultra wide band
  • the processor 120 may include a plurality of output devices 110-1, 110-2, 110-3,..., 110 -M, a sensor module 176, and / or a memory ( 130 may be operatively connected.
  • the processor 120 may perform an overall function of the electronic device 101 to provide a visual effect based on the position of the object 200.
  • the processor 120 exchanges an object 200 and a plurality of output devices 110-1, 110-2, 110-3,..., 110 -M through the sensor module 176.
  • One distance value can be obtained.
  • the processor 120 may output light through at least one output device (for example, the first output device 110-1) belonging to a distance value within a first specified range of the first distance values.
  • the processor 120 may change the position of the object 200 and the plurality of output devices 110-1 through the sensor module 176 in response to the position of the object 200 changed after the light is output.
  • Second distance values between 110-2, 110-3,..., 110 -M may be obtained.
  • the processor 120 may output light through at least one second output device selected from among a plurality of output devices based on at least one second distance value belonging to a distance value of a second specified range of second distance values. have. When the second distance value is greater than the first distance value, the processor 120 may increase the number of output devices that output light and vice versa.
  • the processor 120 may, in response to a change in the position of the object 200, output from the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M. You can control the color or brightness of the light output.
  • the memory 130 may store instructions required for the processor 120 to perform an operation of the electronic device 101.
  • the memory 130 may store information about the number of output devices, the color of light, or the brightness of light that change according to the location of the object 200.
  • FIG. 4 is an exemplary diagram illustrating an operation of measuring a position of an object 200 using UWB technology according to various embodiments.
  • the electronic device 101 may measure the location of the object 200 using UWB technology.
  • UWB technology can utilize signals with a wide frequency bandwidth of more than 500 megahertz (MHz) in the baseband. Since the signal based on the UWB technology has a wide frequency bandwidth and a short pulse, the accuracy of the position measurement is high, so that the electronic device 101 can distinguish a plurality of objects more accurately.
  • the electronic device 101 includes a plurality of output devices 110-1, 110-2,..., 110 -M arranged to be visually exposed through a portion of the housing 105. can do.
  • the electronic device 101 includes a plurality of sensors 176-1, 176-2,... Arranged in a position adjacent to the plurality of output devices 110-1, 110-2,. 176-N), where N is a natural number.
  • the plurality of sensors 176-1, 176-2,..., 176 -N may form the sensor module 176 of FIG. 2.
  • the plurality of sensors 176-1, 176-2,..., 176 -N may include an antenna configured to transmit and receive a signal.
  • the plurality of sensors 176-1, 176-2,..., 176 -N may be disposed inside the housing 105 or may be visually exposed through a portion of the housing 105. According to an embodiment, the number of sensors may be the same as or different from the number of output devices. For example, if the housing 105 has a circular shape, the plurality of sensors 176-1, 176-2, ... 176-N are arranged to have a field of view (FOV) of 10 degrees or more. By doing so, it is possible to detect an object of 360 degree full azimuth.
  • FOV field of view
  • the electronic device 101 transmits a signal through the plurality of sensors 176-1, 176-2,..., 176 -N, and transmits a signal through the signal reflected from the object 200.
  • the position of the object 200 may be measured.
  • the electronic device 101 may determine the time required for the signal 310 transmitted from the sensor 176-1 to return, and the frequency shift between the transmitted signal 410 and the reflected signal 420. Or a distance value between the object 200 and the sensor 176-1 through at least one of the strength of the reflected signal 420. Since the sensor 176-1 is disposed adjacent to the output device 110-1, the electronic device 101 obtains a distance value between the output device 110-1 and the object 200 based on the obtained distance value. can do.
  • the electronic device 101 may determine an output device having the shortest distance from the object 200 to measure the direction (or angle) at which the object 200 is located in relation to the electronic device 101. .
  • the distance distance value between the sensor 176-1 and the object 200 is the most among the distance values between the plurality of sensors 176-1, 176-2, ... 176-N and the object 200. Since the electronic device 101 is small, the electronic device 101 may determine that the object 200 is located in the direction (or angle) at which the sensor 176-1 is disposed.
  • FIG. 5 illustrates a sensor module and a plurality of output devices according to various embodiments. Components shown in FIG. 5 may refer to a view seen from the top of the electronic device 101.
  • the electronic device 101 may include a housing 105 having a rectangular shape.
  • the plurality of output devices 110-1, 110-2,..., 110 -M may be visually exposed through a portion of the housing 105 and disposed at regular intervals.
  • the plurality of sensors 176-1, 176-2,..., 176 -N may be disposed at positions adjacent to the plurality of output devices 110-1, 110-2,..., 110 -M. Can be.
  • the number of the plurality of sensors may be the same as or different from the number of the plurality of output devices.
  • the plurality of output devices 110-1, 110-2,..., 110 -M disposed in the rectangular housing 105 may emit light in the same direction (eg, the -y axis). You can output
  • the electronic device 101 may include a flexible display 160 that is visually exposed through a portion of a housing (not shown) and has a circular shape.
  • the display 160 may output light through output devices in units of pixels disposed in the display 160.
  • the plurality of sensors 176-1, 176-2,..., 176 -N may be disposed inside the display 160.
  • the electronic device 101 may select a portion of the display 160 (eg, based on the position of the object 200 measured through the plurality of sensors 176-1, 176-2, ..., 176-N). Light may be output on the 160-1 or 160-2.
  • the electronic device 101 may include a display 160 that is visually exposed through a portion of the housing 105 and has a straight form.
  • the plurality of sensors 176-1, 176-2,..., 176 -N may be disposed inside the display 160.
  • the electronic device 101 may select a portion of the display 160 (eg, based on the position of the object 200 measured through the plurality of sensors 176-1, 176-2, ..., 176-N). 160-3) may output light.
  • FIG. 6 is an exemplary diagram illustrating an operation of adjusting a color of light based on a position of an object 200 according to various embodiments.
  • the coordinate 600 refers to an RGB cube representing a red green blue (RGB) value in three-dimensional coordinates.
  • Table 610 shows an example in which an RBG value of 8 bits is changed based on a distance value.
  • the coordinate value in the coordinate 600 changes in the order of 601, 602, 603, and 604, so that the color of the light is red, yellow ( Yellow, green, cyan, and blue may be changed in this order.
  • the coordinate value 1 in the coordinate 600 may correspond to the distance value 1 (unit: meter (m)), and the coordinate value 1 may correspond to the RGB value 255 in the table 610.
  • the distance value is 0 (or substantially 0)
  • the coordinate value is (1,0,0) in coordinates 600
  • the R value is 255
  • the G value is 0,
  • the B value in table 610 Since is 0, the color of light may be red.
  • the G value at the coordinate 600 may increase in proportion to the distance value.
  • the distance value is 1, the coordinate value is (1,1,0), and since the R value is 255, the G value is 255, and the B value is 0 in the table 610, the color of light may be yellow.
  • the R value decreases at coordinates 600, so if the distance value is 3, the color of light may be green.
  • the B value increases at coordinates 600, so if the distance value is 3, the color of light may be cyan. While the distance value increases from 3 to 4, the G value decreases at coordinates 600, so if the distance value is 4, the color of light may be blue.
  • FIG. 7 is an exemplary diagram illustrating an operation of adjusting the number of output devices, the brightness of light of a plurality of output devices, and a color based on the position of an object 200 according to various embodiments.
  • the electronic device 101 may determine the output device F having the smallest distance value and the number of output devices that output light.
  • the number of output devices may be determined based on a distance value between the output device F and the object 200.
  • the electronic device 101 may control the number of output devices to increase as the distance value between the object 200 and the output device F decreases, and to decrease the number of output devices as the distance value increases.
  • the number of output devices based on the distance value may be determined as shown in the example shown in Table 1 below.
  • the distance value or the number of output devices shown in Table 1 is merely an example, and various embodiments disclosed in the present disclosure are not limited to the numbers shown in Table 1.
  • the distance value or the number of output devices shown in Table 1 is merely an example, and various embodiments disclosed in the present disclosure are not limited to the numbers shown in Table 1.
  • the electronic device 101 determines the color of light of the output device F and based on the determined color of the light, the other output devices A, which are disposed at a position adjacent to the output device F, B, C, D, E, G, H, I, J, K) can determine the color or brightness of the light. For example, if the distance value between the output device F and the object 200 is 1.24 m, the coordinate F value at coordinate 600 is (0.76,1,0) and the color of the light of the output device F. May be yellow.
  • the electronic device 101 may control the color of light to be black as the output devices disposed farther from the output device F.
  • FIG. the electronic device 101 has a coordinate value of (0,0) in the order of the output device G, H, I, J, K (or E, D, C, B, A) in the coordinate 600. Control to converge to, 0).
  • FIG. 8 illustrates an operation of outputting light based on positions of the plurality of objects 200 and 201 according to various embodiments. Although the embodiment in which the electronic device 101 measures the positions of the two objects 200 and 201 is illustrated, the number of objects is not limited to the example shown in FIG. 8.
  • the electronic device 101 may include at least one output device (for example, 110-1, 110-2, 110-3, 110-4, 110-5, and 110-6). , While outputting light through 110-7, the position of the second object 201 may be measured. For example, the electronic device 101 transmits a signal through the sensor module 176 to the second object 201 and the electronic device 101 (or the plurality of output devices 110-1, 110-2 ... .110-M)) may obtain a third distance value. The electronic device 101 may determine at least one third distance value belonging to the distance value of the third specified range among the third distance values. The electronic device 101 may output light through at least one third output device corresponding to a third distance value of at least one of the plurality of output devices 110-1, 110-2,..., 110 -M. Can be.
  • the electronic device 101 transmits a signal through the sensor module 176 to the second object 201 and the electronic device 101 (or the plurality of output devices 110-1, 110-2 ... .110-M)) may obtain a third distance value.
  • the designated third distance value may be the same as or different from the designated first distance value or the designated second distance value.
  • the electronic device 101 outputs 110 with the smallest third distance value (or faces the second object 201). -10) can output light.
  • FIG. 8 illustrates an embodiment of outputting light through the output device 110-10, but the electronic device 101 uses a plurality of output devices including the output device 110-10 according to a third distance value.
  • the color of light output toward the first object 200 eg, the object 200 of FIG. 1
  • the color of light output toward the second object 201 may be different from the color of light output toward the second object 201.
  • the electronic device 101 may provide different visual effects in response to the movement of the plurality of users, thereby providing a user experience such that the plurality of users interact with the electronic device 101. .
  • FIG. 9 is a flowchart illustrating an operation of an electronic device 101 that outputs light based on locations of the plurality of objects 200 and 201, according to various embodiments.
  • the operations shown in FIG. 9 may refer to operations performed after operation 220 of FIG. 2A.
  • the electronic device 101 may obtain a third distance value from the second object 201.
  • the electronic device 101 may include the electronic device 101 (or the plurality of output devices 110-1, 110-2,..., 110 -M) and the second object 201.
  • the third distance value may be obtained.
  • the electronic device 101 may measure the position of the object 200 using at least one of a PIR sensor, a motion sensor, a distance sensor, a camera sensor, or a radar sensor.
  • the electronic device 101 may output light through at least one third output device determined based on the third distance value. For example, the electronic device 101 determines at least one third distance value belonging to a distance value of a third specified range of the third distance values, and outputs the plurality of output devices 110-1, 110-2. Light may be output through at least one third output device corresponding to the third distance value of at least one of. The electronic device 101 may output light through the at least one third output device while light is output through the at least one second output device. The color of light output through the at least one third output device may be different from the color of light output from the at least one output device including at least one second output device.
  • the electronic device 101 may selectively perform an operation of outputting light for a plurality of objects. For example, in the first mode, the electronic device 101 may output light for a plurality of objects as illustrated in the embodiment of FIG. 8. For another example, in the second mode, the electronic device 101 may not output light toward the second object 201 even though the second object 201 is detected in order to reduce power consumption.
  • the first mode and the second mode may be determined according to a user input or may be determined by the electronic device 101 (for example, the processor 120) based on a battery remaining capacity of the electronic device 101. .
  • FIG. 10 is an exemplary diagram illustrating an operation of changing a color of light based on positions of a plurality of objects according to various embodiments of the present disclosure.
  • the electronic device 101 may output an output device 8 having the smallest distance value from the object 200 and an output device 3 having the smallest distance value from the second object 201. ) Can determine the color of the light. For example, the electronic device 101 may determine that the color of the light of the output device 3 is cyan and the color of the light of the output device 8 is green.
  • the electronic device 101 may determine the color or brightness of the light of the output device 8 and the other output devices disposed in a position adjacent to the output device 3 based on the determined color of the light.
  • the electronic device 101 may control the color of light to be black as the output devices 8 and the output devices disposed farther from the output device 3 become black.
  • the electronic device 101 has a coordinate value of (0,0,0) in the order of the output device 2, 1 (or 9, 10, 11) along the path 1020 in the coordinate 600. It can be controlled to converge.
  • the electronic device 101 outputs light to face the second object 201 and the plurality of output devices 5, 6, 7, 8, 9, 10 and 11 that output light toward the object 200.
  • the color of light may be controlled to have a white color.
  • the electronic device 101 has a coordinate value of (1,1,1) in the order of the output device 4, 5 (or 7, 6, 5) along the path 1010 in the coordinate 600. It can be controlled to converge.
  • the electronic device 101 can prevent user confusion by adjusting the color of the light.
  • FIG. 11 is a diagram illustrating an operation of outputting light based on a distance value and a threshold distance 1110 according to various embodiments.
  • the electronic device 101 may have a threshold distance 1110.
  • the electronic device 101 may include a plurality of output devices 110-1, 110-2, 110-3, ...., 110-M) can be controlled not to output light.
  • the electronic device 101 may output light through the output device 110-1.
  • the electronic device 101 may control the output device 110-1 not to output light.
  • the electronic device 101 does not output light by the plurality of output devices 110-1, 110-2, 110-3,..., 110 -M. By controlling the power consumption, power consumption can be reduced.
  • the electronic device 101 when the object 200 located outside the threshold distance (eg, the second location 200-5) moves to the boundary of the threshold distance, the electronic device 101 includes the output device 110-1.
  • the electronic device 101 may provide a visual effect through at least one output device, such that the light flickers for a predetermined time (blinking effect), and the output device outputting the light may be an output device. It is possible to provide an effect of diffusing to both sides (peripheral diffusion effect) around 1) or an output device of outputting light to move in one direction (sliding effect).
  • 12 is a flowchart illustrating an operation of an electronic device 101 that outputs light based on a distance value and a threshold distance 1110 according to various embodiments. 12 may refer to operations in which operations 205 and 210 of FIG. 2A are performed in more detail.
  • the electronic device 101 may obtain a first distance value from the object 200.
  • the electronic device 101 may have a first distance between the electronic device 101 (or the plurality of output devices 110-1, 110-2,..., 110 -M) and the object 200.
  • the value can be obtained.
  • the electronic device 101 may obtain first distance values using UWB technology.
  • the electronic device 101 may determine whether the smallest first distance value (eg, 1105 of FIG. 11) among the first distance values is less than the threshold distance value. If the first distance value is less than the threshold distance value, the electronic device 101 may perform operation 1215. If the first distance value is greater than the threshold distance value, the electronic device 101 may perform operation 1220.
  • the smallest first distance value eg, 1105 of FIG. 11
  • the electronic device 101 may control the output devices to output light.
  • the electronic device 101 may output light through at least one output device including an output device (eg, 110-1 of FIG. 11) having the smallest first distance value.
  • the electronic device 101 may provide a flickering effect, a peripheral diffusion effect, or a sliding effect to deliver a feeling that the electronic device 101 greets the user.
  • the electronic device 101 may control the output devices not to output light.
  • the electronic device 101 may reduce power consumption by controlling the plurality of output devices 110-1, 110-2,..., 110 -M not to output light.
  • FIG. 13 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through the first network 198 (eg, a short range wireless communication network) or the second network 199.
  • the electronic device 104 may communicate with the server 108 through a long range wireless communication network.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 may include a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module ( 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197. ) May be included.
  • a sensor module 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197.
  • the components for example, the display device 160 or the camera module 180
  • the sensor module 176 may be implemented embedded in the display device 160 (eg, display).
  • the processor 120 executes software (eg, the program 140) to execute at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, processor 120 may send instructions or data received from another component (eg, sensor module 176 or communication module 190) to volatile memory 132. Can be loaded into, processed in a command or data stored in volatile memory 132, and stored in the non-volatile memory (134).
  • software eg, the program 140
  • processor 120 may send instructions or data received from another component (eg, sensor module 176 or communication module 190) to volatile memory 132. Can be loaded into, processed in a command or data stored in volatile memory 132, and stored in the non-volatile memory (134).
  • the processor 120 may include a main processor 121 (eg, a central processing unit or an application processor), and a coprocessor 123 (eg, a graphics processing unit, an image signal processor) that may operate independently or together. , Sensor hub processor, or communication processor). Additionally or alternatively, the coprocessor 123 may be configured to use lower power than the main processor 121 or to be specialized for its designated function. The coprocessor 123 may be implemented separately from or as part of the main processor 121.
  • a main processor 121 eg, a central processing unit or an application processor
  • a coprocessor 123 eg, a graphics processing unit, an image signal processor
  • the coprocessor 123 may be configured to use lower power than the main processor 121 or to be specialized for its designated function.
  • the coprocessor 123 may be implemented separately from or as part of the main processor 121.
  • the coprocessor 123 may, for example, replace the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 may be active (eg, execute an application). At least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) together with the main processor 121 while in the) state. Control at least some of the functions or states associated with the. According to one embodiment, the coprocessor 123 (eg, an image signal processor or communication processor) may be implemented as part of other functionally related components (eg, camera module 180 or communication module 190). have.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101.
  • the data may include, for example, software (eg, the program 140) and input data or output data for a command related thereto.
  • the memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
  • the program 140 may be stored as software in the memory 130, and may include, for example, an operating system 142, middleware 144, or an application 146.
  • the input device 150 may receive a command or data to be used for a component (for example, the processor 120) of the electronic device 101 from the outside (for example, a user) of the electronic device 101.
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output a sound signal to the outside of the electronic device 101.
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker may be used for general purposes such as multimedia playback or recording playback, and the receiver may be used to receive an incoming call.
  • the receiver may be implemented separately from or as part of a speaker.
  • the display device 160 may visually provide information to the outside (eg, a user) of the electronic device 101.
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 160 may include a touch circuitry configured to sense a touch, or a sensor circuit (eg, a pressure sensor) configured to measure the strength of a force generated by the touch. have.
  • the audio module 170 may convert sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 may acquire sound through the input device 150, or may output an external electronic device (eg, a sound output device 155, or directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • an external electronic device eg, a sound output device 155, or directly or wirelessly connected to the electronic device 101. Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101, or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used for the electronic device 101 to be directly or wirelessly connected to an external electronic device (for example, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and videos. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented, for example, as at least part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell or a fuel cell.
  • the communication module 190 may establish a direct (eg wired) communication channel or wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establish and perform communication over established communication channels.
  • the communication module 190 may operate independently of the processor 120 (eg, an application processor) and include one or more communication processors supporting direct (eg, wired) or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg It may include a local area network (LAN) communication module, or a power line communication module.
  • GNSS global navigation satellite system
  • the corresponding communication module of these communication modules may be a first network 198 (e.g., a short range communication network such as Bluetooth, WiFi direct, or an infrared data association (IrDA)) or a second network 199 (e.g., a cellular network, the Internet, or
  • the external electronic device 104 may communicate with a telecommunication network such as a computer network (for example, a LAN or a WAN).
  • a telecommunication network such as a computer network (for example, a LAN or a WAN).
  • These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented by a plurality of components (eg, a plurality of chips) separate from each other.
  • the wireless communication module 192 uses subscriber information (e.g., international mobile subscriber identifier (IMSI)) stored in the subscriber identification module 196 in a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., international mobile subscriber identifier (IMSI)
  • IMSI international mobile subscriber identifier
  • the antenna module 197 may transmit or receive a signal or power to an external (eg, an external electronic device) or from the outside.
  • the antenna module 197 may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for the communication scheme used in the communication network, such as the first network 198 or the second network 199, is for example by means of the communication module 190 from the plurality of antennas. Can be selected.
  • the signal or power may be transmitted or received between the communication module 190 and the external electronic device through the at least one selected antenna.
  • other components eg, RFIC may be further formed as part of the antenna module 197.
  • peripheral devices eg, a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 and 104 may be the same or different type of device as the electronic device 101.
  • all or some of the operations performed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that receive the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as it is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, or client-server computing technology. This can be used.
  • an electronic device may be visually exposed through a housing (eg, the housing 105 of FIG. 3), a portion of the housing, and different positions.
  • a plurality of output devices eg, the output devices 110-1, 110-2,..., 110 -M of FIG. 3) disposed in the housing, and located in the housing and adjacent to a location where the plurality of output devices are disposed.
  • At least one sensor eg, sensor module 176 of FIG. 3) disposed in the processor, and a processor (eg, FIG. 3) located within the housing and operatively connected to the plurality of output devices and the at least one sensor.
  • Processor 120 may be visually exposed through a housing (eg, the housing 105 of FIG. 3), a portion of the housing, and different positions.
  • a plurality of output devices eg, the output devices 110-1, 110-2,..., 110 -M of FIG. 3 disposed in the housing, and located in the housing and adjacent to a location where the plurality of output devices are disposed.
  • the processor acquires a plurality of first distance values between the plurality of output devices and an object through a first signal output by using the at least one sensor, and specifies a first specified value among the plurality of first distance values.
  • a light is output through at least one first output device selected from the plurality of output devices based on at least one first distance value belonging to a range of distance values, and movement of the object after the light is output And in response to detecting the movement, obtaining a plurality of second distance values between the plurality of output devices and the object through the second signal output using the at least one sensor, Based on at least one second distance belonging to a value of a second specified range of a plurality of second distance values, selecting at least one second output device selected from the plurality of output devices It can be set to output to the light.
  • At least a portion of the housing comprises a circular shape, straight, triangular, square, rectangular, polygonal or elliptical shape
  • the plurality of output devices may be arranged to surround the housing at a predetermined interval.
  • the processor when the second distance value is smaller than the first distance value, the processor may be configured to control the plurality of output devices so that the number of output devices that output light increases.
  • the processor is configured to change the brightness or color of the light output from the at least one output device based on at least one of the first distance value or the second distance value. Can be controlled.
  • the processor may acquire a plurality of third distance values between the plurality of output devices and the second object through a third signal output from the at least one sensor, and the at least one first While light is output through the second output device, at least one third selected from among the plurality of output devices based on at least one third distance belonging to a value of a third specified range of the plurality of third distance values It can be set to output light through the output device.
  • the processor may output the plurality of outputs such that the color of the first light output from the at least one second output device is different from the color of the second light output from the at least one third output device. You can control the devices.
  • the processor is the color of the first light through at least one output device overlapping among the output devices including the at least one second output device and the at least one third output device. And a third light having a color different from that of the second light.
  • the processor may control the plurality of output devices not to output light when the second distance values exceed a threshold distance value.
  • an electronic device may obtain an operation (eg, a plurality of first distance values between a plurality of output devices and an object included in the electronic device).
  • Operation 205 of FIG. 2 based on at least one first distance value belonging to a distance value of a first specified range of the plurality of first distance values, at least one first output selected from the plurality of output devices Outputting light through a device (eg, operation 210 of FIG. 2), and in response to a change in the position of the object after the light is output, a plurality of second distance values between the plurality of output devices and the object are output.
  • At least one selected one of the plurality of output devices based on at least one second distance acquired (eg, operation 215 of FIG. 2) and belonging to a value of a second specified range of the plurality of second distance values. 2 outputting light through the output device
  • the method may include an operation (eg, operation 220 of FIG. 2).
  • the operation of outputting light through the at least one second output device may include: increasing the number of output devices that output light when the second distance value is smaller than the first distance value. And controlling the plurality of output devices.
  • the operation of outputting light through the at least one second output device may include light output from the at least one output device based on at least one of the first distance value and the second distance value. And controlling the plurality of output devices to change the brightness or the color of the plurality of output devices.
  • the method may further include obtaining a plurality of third distance values between the plurality of output devices and a second object, while light is output through the at least one second output device. Outputting light through at least one third output device selected from among the plurality of output devices based on at least one third distance belonging to a value of a third specified range of a plurality of third distance values; Can be.
  • the operation of outputting light through the at least one third output device may include generating a color of the first light output through the at least one second output device and the at least one third output device. And controlling the plurality of output devices so that the color of the second light output through the second light is different.
  • the operation of outputting light through the at least one third output device may be performed by outputting the overlapping one of the at least one second output device and the at least one third output device. And outputting a third light having a color different from that of the first light and the color of the second light.
  • the method may further include controlling the plurality of output devices not to output light when the second distance values exceed a threshold distance value.
  • the electronic device may include a sensor (eg, the sensor module 176 of FIG. 3) and a plurality of light emitting devices (eg, FIG. 3 ′ output device). 110-1, 110-2,..., 110 -M, and a processor (eg, the processor 120 of FIG. 3), wherein the processor uses the sensor to communicate with an external object.
  • the information related to the external object may be output using the first light emitting device group.
  • the processor senses a distance and a direction from another designated external object by using the sensor, and the second object of the plurality of light emitting devices according to the distance from the other external object. Designating a second group of light emitting devices corresponding to a direction of and using at least one light emitting device included in the second light emitting device group based at least on the distance to the other external object or the direction of the external object. It may be set to output information associated with the other external object.
  • one or more light emitting devices included in the first light emitting device group may be included in the second light emitting device group.
  • the processor may output the number of light emitting devices included in the first light emitting device group, the color of information related to the external object, or the information related to the external object according to the distance from the external object. It may be set to control at least one of the intensity.
  • the senor supports UWB technology and may be disposed at a location adjacent to the plurality of light emitting devices.
  • Electronic devices may be various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smartphone
  • a computer device e.g., a tablet, or a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch
  • first, second, or first or second may be used merely to distinguish a component from other corresponding components, and to separate the components from other aspects (e.g. Order).
  • Some (eg first) component may be referred to as “coupled” or “connected” to another (eg second) component, with or without the term “functionally” or “communically”.
  • any component can be connected directly to the other component (eg, by wire), wirelessly, or via a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
  • the module may be an integral part or a minimum unit or part of the component, which performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of this document may include one or more instructions stored on a storage medium (eg, internal memory 136 or external memory 138) that can be read by a machine (eg, electronic device 101). It may be implemented as software (eg, program 140) including the.
  • a processor eg, the processor 120 of the device (eg, the electronic device 101) may call and execute at least one command among one or more instructions stored from the storage medium. This enables the device to be operated to perform at least one function in accordance with the at least one command invoked.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' means only that the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and the term is used when the data is stored semi-permanently on the storage medium. It does not distinguish cases where it is temporarily stored.
  • a signal e.g. electromagnetic wave
  • a method may be provided included in a computer program product.
  • the computer program product may be traded between the seller and the buyer as a product.
  • the computer program product may be distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM) or two user devices ( Example: smartphones) can be distributed (eg downloaded or uploaded) directly or online.
  • a device-readable storage medium such as a server of a manufacturer, a server of an application store, or a relay server, or may be temporarily created.
  • each component eg, module or program of the above-described components may include a singular or plural entity.
  • one or more of the aforementioned components or operations may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of the component of each of the plurality of components the same as or similar to that performed by the corresponding component of the plurality of components before the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Or one or more other actions may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

하우징, 하우징의 일부를 통해 시각적으로 노출된 복수의 출력 장치들, 상기 복수의 출력 장치들과 인접하게 배치된 적어도 하나의 센서, 및 프로세서를 포함하는 전자 장치가 개시된다. 전자 장치는 적어도 하나의 센서를 이용하여 복수의 출력 장치들과 객체 간 복수의 제1 거리 값들을 획득하고, 복수의 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 제1 거리 값에 기반하여, 복수의 출력 장치들 중 선택된 적어도 하나의 제1 출력 장치를 통해 빛을 출력하고, 적어도 하나의 센서를 이용하여 복수의 출력 장치들과 상기 객체 간 복수의 제2 거리 값들을 획득하고, 복수의 제2 거리 값들 중 제2 지정된 범위의 값에 속하는 적어도 하나의 제2 거리에 기반하여, 복수의 출력 장치들 중 선택된 적어도 하나의 제2 출력 장치를 통해 빛을 출력하도록 설정될 수 있다.

Description

사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하는 전자 장치 및 그에 관한 방법
본 문서에서 개시되는 다양한 실시 예들은, 사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하기 위한 전자 장치 및 그에 관한 방법과 관련된다.
최근 다양한 전자 장치에 인공 지능(artificial intelligence, AI) 기술이 적용되면서, 사용자는 시간과 장소에 제한 받지 않고 사용자가 원하는 정보를 전자 장치를 통해 제공받을 수 있다. 예를 들어, 사용자는 스마트폰과 같은 휴대용 장치를 통해 이동 중에도 정보를 검색할 수 있고, 집이나 사무실과 같은 실내에 설치된 전자 장치를 통해 정보를 검색할 수 있다.
전자 장치의 데이터 처리 속도 및 통신 기술이 발전하면서, 전자 장치가 정보를 요청하는 사용자 입력에 응답하는 시간은 점차 감소하고 있다. 사용자 입력에 대한 응답 시간이 감소할 수록, 전자 장치는 사용자가 전자 장치와 상호작용하는 것과 같은 사용자 경험(user experience, UX)을 사용자에게 제공할 수 있다.
실내에 배치된 전자 장치는 고정된 위치에서 사용자와 떨어진 채로 동작하는 경우가 빈번할 수 있다. 전자 장치의 사용자가 일정 거리 이내에 진입하여도 전자 장치가 반응을 하지 않으면 사용자는 전자 장치의 작동 여부를 알 수 없는 문제가 발생할 수 있으므로, 전자 장치는 사용자의 위치를 측정하고, 측정된 위치에 따라서 정보를 제공할 필요가 있다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 하우징, 상기 하우징의 일부를 통해 시각적으로 노출되고, 서로 다른 위치에 배치되는 복수의 출력 장치들, 상기 하우징 내에 위치하고, 상기 복수의 출력 장치들이 배치된 위치와 인접한 위치에 배치되는 적어도 하나의 센서, 및 상기 하우징 내에 위치하고, 상기 복수의 출력 장치들 및 상기 적어도 하나의 센서와 작동적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 상기 적어도 하나의 센서를 이용하여 출력된 제1 신호를 통해, 상기 복수의 출력 장치들과 객체 간 복수의 제1 거리 값들을 획득하고, 상기 복수의 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 제1 거리 값에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제1 출력 장치를 통해 빛을 출력하고, 상기 빛이 출력된 이후에 상기 객체의 움직임을 감지하고, 상기 움직임이 감지되는 것에 응답하여, 상기 적어도 하나의 센서를 이용하여 출력된 제2 신호를 통해, 상기 복수의 출력 장치들과 상기 객체 간 복수의 제2 거리 값들을 획득하고, 상기 복수의 제2 거리 값들 중 제2 지정된 범위의 값에 속하는 적어도 하나의 제2 거리에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제2 출력 장치를 통해 빛을 출력하도록 설정될 수 있다.
본 문서에 개시되는 일 실시예에 따른 전자 장치의 방법은, 상기 전자 장치에 포함되는, 복수의 출력 장치들과 객체 간 복수의 제1 거리 값들을 획득하는 동작, 상기 복수의 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 제1 거리 값에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제1 출력 장치 통해 빛을 출력하는 동작, 상기 빛이 출력된 이후 상기 객체의 위치가 변경된 것에 응답하여, 상기 복수의 출력 장치들과 상기 객체 간 복수의 제2 거리 값들을 획득하고, 상기 복수의 제2 거리 값들 중 제2 지정된 범위의 값에 속하는 적어도 하나의 제2 거리에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제2 출력 장치를 통해 빛을 출력하는 동작을 포함할 수 있다.
본 문서에 개시된 일 실시예에 따른 전자 장치는, 센서, 복수의 발광 소자들, 및 프로세서를 포함하고, 상기 프로세서는, 상기 센서를 이용하여 외부 객체와의 거리 및 방향을 감지하고, 상기 외부 객체와의 거리에 따라, 상기 복수의 발광 소자들 중 상기 외부 객체와의 방향에 대응하는 제1 발광 소자 그룹을 지정하고, 및 상기 외부 객체와의 거리 또는 상기 외부 객체와의 방향에 적어도 기반하여, 상기 외부 객체와 관련된 정보를 상기 제1 발광 소자 그룹을 이용하여 출력하도록 설정될 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 객체의 위치에 따라서 시각적 효과를 제공함으로써 사용자가 전자 장치와 떨어진 상태에서도 사용자가 전자 장치와 상호작용하는 것과 같은 사용자 경험을 제공할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 보다 정확한 위치 측정 기술을 통해 복수의 객체들의 위치를 구별하고, 서로 다른 시각적 효과를 제공할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 사용자의 위치에 대응하는 시각적 효과를 제공함으로써, 사용자로부터 보다 정밀한 입력(예: 음성 명령)을 수신할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1a는 다양한 실시 예들에 따라 객체의 위치에 기반하여 빛을 출력하는 동작을 설명할 수 있는 예시도이다.
도 1b는 다양한 실시 예들에 따라 객체의 위치에 기반하여 빛을 출력하는 다른 동작을 설명할 수 있는 예시도이다.
도 1c는 다양한 실시 예들에 따라 객체의 위치에 기반하여 빛을 출력하는 다른 동작을 설명할 수 있는 예시도이다.
도 2a는 다양한 실시 예들에 따라 객체의 위치에 기반하여 빛을 출력하는 전자 장치의 동작 흐름도를 도시한다.
도 2b는 다양한 실시 예들에 따라 객체의 위치 또는 방향에 기반하여 객체와 관련된 정보를 출력하는 전자 장치의 동작 흐름도를 도시한다.
도 3은 다양한 실시 예들에 따라 객체의 위치에 기반하여 빛을 출력하는 전자 장치의 블록도를 도시한다.
도 4는 다양한 실시 예들에 따라 UWB(ultra wide band) 기술을 이용하여 객체의 위치를 측정하는 동작을 설명할 수 있는 예시도이다.
도 5는 다양한 실시 예들에 따른 센서 모듈 및 복수의 출력 장치들을 도시한다.
도 6은 다양한 실시 예들에 따라 객체의 위치에 기반하여 빛의 색상을 조절하는 동작을 설명할 수 있는 예시도이다.
도 7은 다양한 실시 예들에 따라 객체의 위치에 기반하여 출력 장치의 개수, 복수의 출력 장치들의 빛의 밝기, 및 색상을 조절하는 동작을 설명할 수 있는 예시도이다.
도 8은 다양한 실시 예들에 따라 복수의 객체들의 위치에 기반하여 빛을 출력하는 동작을 설명할 수 있는 예시도이다.
도 9는 다양한 실시 예들에 따라 복수의 객체들의 위치에 기반하여 빛을 출력하는 전자 장치의 동작 흐름도를 도시한다.
도 10은 다양한 실시 예들에 따라 복수의 객체들의 위치에 기반하여 빛의 색상을 변경하는 동작을 설명할 수 있는 예시도이다.
도 11은 다양한 실시 예들에 따라 거리 값 및 임계 거리에 기반하여 빛을 출력하는 동작을 설명할 수 있는 예시도이다.
도 12는 다양한 실시 예들에 따라 거리 값 및 임계 거리에 기반하여 빛을 출력하는 전자 장치의 동작 흐름도를 도시한다.
도 13은 다양한 실시 예들에 따른, 사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하는, 네트워크 환경에서 전자 장치의 블록도를 도시한다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1a 내지 도 1c는 다양한 실시 예들에 따라 객체(200)의 위치에 기반하여 빛을 출력하는 동작을 설명할 수 있는 예시도이다. 도 1a 내지 도 1c는 전자 장치(101) 및 객체(200)를 상단에서 바라본 도면을 의미할 수 있다.
도 1a를 참조하면, 네트워크 환경(1)에서 객체(200)는 전자 장치(101)의 사용자를 의미할 수 있다. 일 실시 예에 따르면, 객체(200)는 사용자 이외에도 전자 장치(101)에 의하여 움직임이 감지될 수 있는 지정된 하나 이상의 다른 대상(target)을 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 AI 스피커일 수 있다. AI 스피커 이외에도, 전자 장치(101)는 디스플레이 장치, 스마트폰, 컴퓨터 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 전자 장치(101)는 하우징(105) 및 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)(M은 자연수)을 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(101) 객체(200)의 위치를 측정하도록 설정된 센서 모듈(미도시)을 더 포함할 수 있다. 센서 모듈은 예를 들어, 전자 장치(101)의 내부 또는 외부에 배치될 수 있다. 센서 모듈을 통해 사용자의 위치를 측정하는 실시 예는 도 4에서 보다 구체적으로 설명된다.
일 실시 예에 따르면, 하우징(105)의 적어도 일부는 전 방위에서 사용자에게 시각적 효과를 제공하기 위하여 원형 형태를 가질 수 있다. 원형 형태 이외에도, 하우징(105)의 적어도 일부는 전자 장치(101)의 상단에서 바라볼 때 직선형, 삼각형, 정사각형, 직사각형, 다각형, 또는 타원형 형태를 가질 수 있다.
일 실시 예에 따르면, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)은 하우징(105)으로부터의 일부를 통해 시각적으로 노출되고, 서로 다른 위치에 배치될 수 있다. 예를 들어, 하우징(105)이 원형 형태이면, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)은 일정한 각도로 배치됨으로써 360도 각도를 형성할 수 있다. 일 실시 예에 따르면, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)은 빛을 출력할 수 있다. 예를 들어, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)은 LED(light emitting diode), 또는 전구와 같은 발광 소자를 포함할 수 있다. 다른 실시 예에 따르면, 복수의 출력 장치들 중 적어도 일부는 청각적 효과를 제공하도록 설정된 음향 출력 장치를 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 센서 모듈(미도시)을 통해 객체(200)의 위치를 측정하고, 객체(200)의 위치에 기반하여 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)을 통해 빛을 출력할 수 있다. 객체(200)의 위치는 예를 들어, 전자 장치(101)와 객체(200) 간 거리 또는 전자 장치(101)에 대한 객체(200)의 방향을 포함할 수 있다. 다른 예를 들어, 객체(200)의 위치는 각각의 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)과 객체(200) 간 거리 또는 방향을 포함할 수 있다. 전자 장치(101)는 예를 들어, 인체에서 발생하는 열을 이용하는 PIR(passive infra-red) 센서, 써모파일(thermopile)과 같은 움직임 감지 센서, 적외선 또는 초음파를 이용하는 거리 센서, 이미지를 통해 거리를 측정하는 카메라 센서 또는 무선 주파수(radio frequency, RF) 신호를 출력한 이후 반사되는 신호를 분석하는 레이더(radar) 센서 중 적어도 하나를 이용하여 객체(200)의 위치를 측정할 수 있다. 다른 예를 들어, 전자 장치(101)는 UWB(ultra wide band) 기술에 기반하여 객체(200)의 위치를 측정할 수 있다.
일 실시 예에 따르면, 네트워크 환경(1)에서, 전자 장치(101)는 전자 장치(101)와 제1 위치(2001)에 위치한 객체(200) 간 제1 거리 값을 센서 모듈을 통해 획득하고 제1 거리 값에 기반하여 빛을 출력할 수 있다. 예를 들어, 전자 장치(101)는 복수의 출력 장치들(110-1, 110-2, 110-3,...,110-M)과 객체(200)간 각각의 제1 거리 값들을 센서 모듈을 통해 획득할 수 있다. 이 경우, 전자 장치(101)는 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 제1 출력 장치(예: 출력 장치(110-1))를 통해 빛을 출력할 수 있다.
일 실시 예에 따르면, 적어도 하나의 제1 출력 장치로부터 빛이 출력된 이후에, 객체(200)는 실질적으로 방향을 변경하지 않고 전자 장치(101)와의 거리 값이 변경되는 제2 위치(200-2)로 이동할 수 있다. 전자 장치(101)는 제2 위치(200-2)에 위치하는 객체(200)와 전자 장치(101)(또는, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)) 간 제2 거리 값들을 센서 모듈을 통해 획득할 수 있다. 제2 거리 값은 제1 거리 값보다 증가 또는 감소할 수 있다. 전자 장치(101)는 제2 거리 값이 제1 거리 값 보다 작으면, 빛을 출력하는 출력 장치들 중에서 중심에 배치된 출력 장치(예: 110-1)를 변경하지 않고 빛을 출력하는 출력 장치의 개수를 증가시킬 수 있다. 예를 들어, 도 1a에 도시된 바와 같이, 하나의 출력 장치(예: 110-1)를 통해 빛을 출력하던 전자 장치(101)는 제2 거리 값이 제1 거리 값보다 작은 것에 기반하여 출력 장치(110-1)를 포함하는 복수의 출력 장치들(예: 110-1, 110-2, 110-3, 110-4, 110-5, 110-6, 110-7)을 통해 빛을 출력 할 수 있다. 다른 예를 들어, 제2 거리 값이 제1 거리 값보다 크도록 객체(200)가 이동하면, 전자 장치(101)는 빛을 출력하는 출력 장치의 개수를 감소시킬 수 있다.
일 실시 예에 따르면, 도 1b의 네트워크 환경(2)에서, 적어도 하나의 제1 출력 장치로부터 빛이 출력된 이후에 객체(200)는 방향을 변경하여 제3 위치(200-3)로 이동할 수 있다. 전자 장치(101)는 제3 위치(200-3)에 위치하는 객체(200)와 전자 장치(101)(또는, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)) 간 제2 거리 값을 센서 모듈을 통해 획득할 수 있다. 객체(200)가 방향을 변경하여 이동하므로, 객체(200)와 정면으로 바라보는 출력 장치(즉, 제2 거리 값이 가장 작은 출력 장치)는 출력 장치(110-1)에서 출력 장치(110-10)로 변경될 수 있다. 전자 장치(101)는 빛을 출력 하는 출력 장치의 개수를 변경하지 않고, 빛을 출력하는 출력 장치를 제2 거리 값이 가장 작은 출력 장치(110-10)로 변경할 수 있다.
일 실시 예에 따르면, 도 1c의 네트워크 환경(3)에서, 적어도 하나의 제1 출력 장치로부터 빛이 출력된 이후에 객체(200)는 방향 및 거리가 변경되는 제4 위치(200-4)로 이동할 수 있다. 전자 장치(101)는 제4 위치(200-4)에 위치하는 객체(200)와 전자 장치(101)(또는, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)) 간 제2 거리 값을 센서 모듈을 통해 획득할 수 있다. 객체(200)는 방향 및 거리를 변경하여 이동하므로, 객체(200)와 정면으로 바라보는 출력 장치(즉, 제2 거리 값이 가장 작은 출력 장치)는 출력 장치(110-1)에서 출력 장치(110-10)로 변경되고 제2 거리 값은 제1 거리 값보다 증가 또는 감소할 수 있다. 전자 장치(101)는 제2 거리 값이 가장 작은 출력 장치 및 빛을 출력하는 출력 장치의 개수를 변경할 수 있다. 예를 들어, 객체(200)의 위치가 제4 위치(200-4)로 변경된 것에 응답하여, 전자 장치(101)는 출력 장치(110-10)를 포함하는 복수의 출력 장치들(예: 110-10, 110-11, 110-12, 110-13, 110-14, 110-15, 110-16)을 통해 빛을 출력할 수 있다.
상술한 방법을 통해, 전자 장치(101)는 사용자의 움직임에 반응하여 서로 다른 시각적 효과를 제공함으로써, 사용자가 전자 장치(101)와 상호작용 하는 것과 같은 사용자 경험을 제공할 수 있다. 또한, 사용자는 전자 장치(101)로부터 제공되는 시각적 효과를 보고 사용자 입력(예: 음성 명령)을 제공할 수 있으므로, 전자 장치(101)가 빔포밍(beamforming)과 같이 방향성을 가지고 사용자 입력을 수신하는 경우, 전자 장치(101)는 보다 정밀하게 사용자 입력을 수신할 수 있다.
도 2a는 다양한 실시 예들에 따라 객체(200)의 위치에 기반하여 빛을 출력하는 전자 장치(101)의 동작 흐름도를 도시한다. 도 2a에 도시된 동작들은 전자 장치(101) 또는 전자 장치(101)의 구성요소(예: 도 3의 프로세서(120))에 의하여 수행될 수 있다.
도 2a를 참조하면, 방법 202의 동작 205에서, 전자 장치(101)는 객체(200)와 전자 장치(101) 간 제1 거리 값을 획득할 수 있다. 제1 거리 값은 예를 들어, 복수의 출력 장치들(110-1, 110-2,...,110-M)과 객체(200) 간 거리 값들을 의미할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 전자 장치(101)의 외부 또는 내부에 배치된 센서 모듈을 이용하여 거리 값을 획득할 수 있다. 예를 들어, 전자 장치(101)가 무선 신호를 이용하여 거리 값을 획득하는 경우, 전자 장치(101)는 센서 모듈로부터 출력된 신호가 반사되어 돌아오는 시간, 신호가 출력된 방향 중 적어도 하나에 기반하여 객체(220)의 위치를 결정할 수 있다.
동작 210에서, 전자 장치(101)는 제1 거리 값에 기반하여 결정된 적어도 하나의 제1 출력 장치를 통해 빛을 출력할 수 있다. 예를 들어, 전자 장치(101)는 복수의 출력 장치들(110-1, 110-2,...,110-M)과 객체(200) 간 제1 거리 값들을 결정할 수 있다. 전자 장치(101)는 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 제1 거리 값을 결정하고, 결정된 적어도 하나의 제1 거리 값에 대응하는 적어도 하나의 제1 출력 장치를 통해 빛을 출력할 수 있다.
동작 215에서, 전자 장치(101)는 빛이 출력된 이후 위치가 변경된 객체(200)와 전자 장치(101) 간 제2 거리 값을 획득할 수 있다. 제2 거리 값은 예를 들어, 객체(200)와 복수의 출력 장치들(110-1, 110-2,...,110-M) 간 각각의 거리 값들을 의미할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 동작 205와 동일하거나 또는 적어도 일부가 유사한 방식으로 제2 거리 값을 획득할 수 있다.
동작 220에서, 전자 장치(101)는 제2 거리 값에 기반하여 결정된 적어도 하나의 제2 출력 장치를 통해 빛을 출력할 수 있다. 예를 들어, 전자 장치(101)는 복수의 출력 장치들(110-1, 110-2,...,110-M)과 위치가 변경된 객체(200) 간 제2 거리 값들을 결정할 수 있다. 전자 장치(101)는 제2 거리 값들 중 제2 지정된 범위의 거리 값에 속하는 적어도 하나의 제2 거리 값을 결정하고, 결정된 적어도 하나의 제2 거리 값에 대응하는 적어도 하나의 제2 출력 장치를 통해 빛을 출력할 수 있다.
일 실시 예에 따르면, 제2 지정된 범위의 거리 값은 제1 지정된 범위의 거리 값과 동일하거나 적어도 일부가 다를 수 있다. 전자 장치(101)는 제2 거리 값이 제1 거리 값보다 작으면(즉, 객체(200)가 전자 장치(101)를 향하여 이동하면), 빛을 출력하는 출력 장치들의 개수를 증가시킬 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 제2 거리 값 및 제1 거리 값에 기반하여 빛의 색상 또는 밝기를 변경할 수 있다. 예를 들어, 전자 장치(101)는 제2 거리 값이 작을수록 빛의 색상이 붉은 색으로 변경되고, 제2 거리 값이 증가할수록 빛의 색상이 푸른 색으로 변경되도록 제어할 수 있다.
도 2b는 다양한 실시 예들에 따라 객체(200)의 위치 또는 방향에 기반하여 객체와 관련된 정보를 출력하는 전자 장치(101)의 동작 흐름도를 도시한다.
도 2b를 참조하면, 방법 250의 동작 255에서, 전자 장치(101)는 객체(200)와의 거리 및 방향을 감지(detect)할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 PIR 센서, 움직임 감지 센서, 거리 센서, 카메라 센서 또는 레이더 센서 중 적어도 하나를 이용하여 객체(200)의 위치를 측정할 수 있다. 예를 들어, 센서가 UWB 기술을 지원하면, 센서는 복수의 출력 장치들(110-1, 110-2,...,110-M)과 인접한 위치에 배치될 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 디스플레이를 포함할 수 있다. 일 실시 예에 따르면, 복수의 출력 장치들 중 일부는 디스플레이에 배치된 화소의 구동(OLED의 구동 또는 마이크로 LED의 구동)을 통해 일 실시 예에 따른 빛을 출력할 수 있다.
동작 260에서, 전자 장치(101)는 거리 및 방향에 따른 제1 출력 장치를 결정할 수 있다. 예를 들어, 전자 장치(101)는 객체(200)와의 거리에 따라서, 복수의 출력 장치들(110-1, 110-2,...,110-M) 중 객체(200)와의 방향에 대응하는 제1 출력 장치 그룹(또는 제1 발광 소자 그룹)을 결정할 수 있다.
동작 265에서, 전자 장치(101)는 객체(200)와 관련된 정보를 제1 출력 장치 그룹을 이용하여 출력할 수 있다. 객체(200)와 관련된 정보는 예를 들어, 빛, 음향, 또는 진동을 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 객체(200)와의 거리에 따라서 제1 출력 장치 그룹에 포함되는 출력 장치의 개수, 객체(200)와 관련된 정보의 색상, 또는 출력 세기 중 적어도 하나를 제어할 수 있다.
도 3은 다양한 실시 예들에 따라 객체(200)의 위치에 기반하여 빛을 출력하는 전자 장치(101)의 블록도를 도시한다.
도 3을 참조하면, 전자 장치(101)는 하우징(105), 센서 모듈(176), 프로세서(120), 복수의 출력 장치들(110-1,110-2,...,110-M), 및/또는 메모리(130)를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 도 2에 도시된 구성요소들 중 적어도 하나를 생략하거나, 다른 구성요소를 적어도 하나 더 포함할 수 있다. 예를 들어, 전자 장치(101)는 메모리(130)를 생략할 수 있다. 다른 예를 들어, 전자 장치(101)는 도 13의 구성요소들 중 적어도 하나를 더 포함할 수 있다.
일 실시 예에 따르면, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)은 하우징(105)의 일부를 통해 시각적으로 노출되도록 배치될 수 있다. 다른 예를 들어, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)은 하우징(105) 내부에 배치될 수 있다. 이 경우, 하우징(105)은 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)로부터 출력되는 빛이 통과되는 재질을 포함할 수 있다.
일 실시 예에 따르면, 센서 모듈(176)은 적어도 하나의 센서를 포함할 수 있다. 센서 모듈(176)은 전자 장치(101)의 내부에 실장 되거나, 전자 장치(101)의 외부에 배치될 수 있다. 센서 모듈(176)이 전자 장치(101)의 내부에 배치되면, 센서 모듈(176)은 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)과 인접한 위치에 배치되고, 전자 장치(101)는 센서 모듈(176)과 객체(200)간 거리 값에 기반하여 센서 모듈(176)과 인접한 위치에 배치된 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M) 및 객체(200) 간 거리 값을 획득할 수 있다. 센서 모듈(176)은 예를 들어, UWB(ultra wide band) 기술을 이용하여 객체(200)와 센서 모듈(176) 간 거리 값을 획득할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M), 센서 모듈(176), 및/또는 메모리(130)와 작동적으로 연결(operatively connected)될 수 있다. 프로세서(120)는 객체(200)의 위치에 기반하여 시각적 효과를 제공하기 위한 전자 장치(101)의 전반적인 기능을 수행할 수 있다.
예를 들어, 프로세서(120)는 센서 모듈(176)을 통해 객체(200)와 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M) 간 제1 거리 값을 획득할 수 있다. 프로세서(120)는 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 출력 장치(예: 제1 출력 장치(110-1))를 통해 빛을 출력할 수 있다.
다른 예를 들어, 프로세서(120)는 빛이 출력된 이후 객체(200)의 위치가 변경된 것에 응답하여 센서 모듈(176)을 통해 위치가 변경된 객체(200)와 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M) 간 제2 거리 값들을 획득할 수 있다. 프로세서(120)는 제2 거리 값들 중 제2 지정된 범위의 거리 값에 속하는 적어도 하나의 제2 거리 값에 기반하여 복수의 출력 장치들 중 선택된 적어도 하나의 제2 출력 장치를 통해 빛을 출력할 수 있다. 프로세서(120)는 제2 거리 값이 제1 거리 값 보다 크면 빛을 출력하는 출력 장치의 개수를 증가시키고, 역으로도 동작할 수 있다.
다른 예를 들어, 프로세서(120)는 객체(200)의 위치가 변경된 것에 응답하여, 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)로부터 출력되는 빛의 색상 또는 밝기를 제어할 수 있다.
일 실시 예에 따르면, 메모리(130)는 프로세서(120)가 전자 장치(101)의 동작을 수행하기 위하여 요구되는 인스트럭션들(instructions)을 저장할 수 있다. 예를 들어, 메모리(130)는 객체(200)의 위치에 따라서 변경되는 출력 장치의 개수, 빛의 색상, 또는 빛의 밝기에 관한 정보를 저장할 수 있다.
도 4는 다양한 실시 예들에 따라 UWB 기술을 이용하여 객체(200)의 위치를 측정하는 동작을 설명할 수 있는 예시도이다.
도 4를 참조하면, 네트워크 환경(400)에서, 전자 장치(101)는 UWB 기술을 이용하여 객체(200)의 위치를 측정할 수 있다. UWB 기술은 기저대역(baseband)에서 500 메가헤르츠(megahertz, MHz) 이상의 넓은 주파수 대역폭을 가지는 신호를 이용할 수 있다. UWB 기술에 기반한 신호는 넓은 주파수 대역폭을 가지고 펄스(pulse)는 짧기 때문에 위치 측정의 정확도가 높으므로, 전자 장치(101)는 복수의 객체들을 보다 정확하게 구별할 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 하우징(105)의 일부를 통해 시각적으로 노출되도록 배치되는 복수의 출력 장치들(110-1, 110-2,...,110-M)을 포함할 수 있다. 전자 장치(101)는 복수의 출력 장치들(110-1, 110-2,...,110-M)과 인접한 위치에 배치되는 복수의 센서들(176-1, 176-2,...,176-N)(N은 자연수)을 포함할 수 있다. 복수의 센서들(176-1, 176-2,...,176-N)은 도 2의 센서 모듈(176)을 형성할 수 있다. 일 실시 예에 따르면, 복수의 센서들(176-1, 176-2,...,176-N)은 신호를 송수신하도록 설정된 안테나를 포함할 수 있다. 복수의 센서들(176-1, 176-2,...,176-N)은 하우징(105)의 내부에 배치되거나, 하우징(105)의 일부를 통해 시각적으로 노출될 수 있다. 일 실시 예에 따르면, 복수의 센서들의 개수는 복수의 출력 장치들의 개수와 동일하거나 다를 수 있다. 예를 들어, 하우징(105)이 원형 형태를 가지면, 복수의 센서들(176-1, 176-2, ...176-N)은 10도 이상의 시야각(field of view, FOV)을 가지도록 배치됨으로써 360도 전 방위의 객체를 감지할 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 복수의 센서들(176-1, 176-2,...,176-N)을 통해 신호를 전송하고, 객체(200)로부터 반사된 신호를 통해 객체(200)의 위치를 측정할 수 있다. 예를 들어, 전자 장치(101)는 센서(176-1)로부터 전송된 신호(310)가 돌아오기까지 소요된 시간, 전송된 신호(410)와 반사된 신호(420)의 주파수 편이(frequency shift), 또는 반사된 신호(420)의 세기(strength) 중 적어도 하나를 통해 객체(200)와 센서(176-1) 간 거리 값을 획득할 수 있다. 센서(176-1)는 출력 장치(110-1)와 인접하게 배치되므로, 전자 장치(101)는 획득된 거리 값에 기반하여 출력 장치(110-1)와 객체(200) 간 거리 값을 획득할 수 있다. 다른 예를 들어, 전자 장치(101)는 객체(200)와의 거리가 가장 짧은 출력 장치를 결정함으로써, 전자 장치(101)와의 관계에서 객체(200)가 위치한 방향(또는 각도)을 측정할 수 있다. 예를 들어, 복수의 센서들(176-1, 176-2, ...176-N)과 객체(200) 간 거리 값들 중 센서(176-1)와 객체(200) 간 거리 거리 값이 가장 작으므로, 전자 장치(101)는 객체(200)가 센서(176-1)가 배치된 방향(또는 각도)에 위치함을 결정할 수 있다.
도 5는 다양한 실시 예들에 따른 센서 모듈 및 복수의 출력 장치들을 도시한다. 도 5에 도시된 구성요소들은 전자 장치(101)의 상단에서 바라본 도면을 의미할 수 있다.
도 5의 참조 번호 501을 참조하면, 전자 장치(101)는 직사각형 형태의 하우징(105)을 포함할 수 있다. 복수의 출력 장치들(110-1, 110-2,...,110-M)은 하우징(105)의 일부를 통해 시각적으로 노출되고, 일정한 간격으로 배치될 수 있다. 복수의 센서들(176-1, 176-2,...,176-N)은 복수의 출력 장치들(110-1, 110-2,...,110-M)과 인접한 위치에 배치될 수 있다. 복수의 센서들의 개수는 복수의 출력 장치들의 개수와 동일하거나 다를 수 있다. 일 실시 예에 따르면, 직사각형 형태의 하우징(105)에 배치된 복수의 출력 장치들(110-1, 110-2,...,110-M)은 동일한 방향(예: -y 축)으로 빛을 출력할 수 있다.
일 실시 예에 따른 참조 번호 502를 참조하면, 전자 장치(101)는 하우징(미도시)의 일부를 통해 시각적으로 노출되고, 원형 형태를 가지는 플렉서블 디스플레이(160)를 포함할 수 있다. 디스플레이(160)는 디스플레이(160) 내에 배치된 픽셀 단위의 출력 장치들을 통해 빛을 출력할 수 있다. 복수의 센서들(176-1, 176-2,...,176-N)은 디스플레이(160)의 내측에 배치될 수 있다. 전자 장치(101)는 복수의 센서들(176-1, 176-2,...,176-N)을 통해 측정된 객체(200)의 위치에 기반하여 디스플레이(160)의 일부 영역(예: 160-1 또는 160-2) 상에 빛을 출력할 수 있다.
일 실시 예에 따른 참조 번호 503을 참조하면, 전자 장치(101)는 하우징(105)의 일부를 통해 시각적으로 노출되고, 직선 형태를 가지는 디스플레이(160)를 포함할 수 있다. 복수의 센서들(176-1, 176-2,...,176-N)은 디스플레이(160)의 내측에 배치될 수 있다. 전자 장치(101)는 복수의 센서들(176-1, 176-2,...,176-N)을 통해 측정된 객체(200)의 위치에 기반하여 디스플레이(160)의 일부 영역(예: 160-3) 상에 빛을 출력할 수 있다.
도 6은 다양한 실시 예들에 따라 객체(200)의 위치에 기반하여 빛의 색상을 조절하는 동작을 설명할 수 있는 예시도이다.
도 6을 참조하면, 좌표(600)는 RGB(red green blue) 값을 3차원 좌표에서 나타내는 RGB 큐브(cube)를 의미한다. 표(610)는 거리 값에 기반하여 8 비트(bit)의 RBG 값이 변경되는 예를 나타낸다. 객체(200)와 출력 장치 간 거리 값이 증가할수록, 좌표(600)에서 좌표 값은 601 방향, 602 방향, 603 방향, 및 604 방향 순서로 변경되므로, 빛의 색상은 빨간색(red), 노란색(yellow), 초록색(green), 시안색(cyan), 파란색(blue) 순서로 변경될 수 있다. 좌표(600)에서 좌표 값 1은 거리 값 1(단위: 미터(m))에 대응하고, 좌표 값 1은 표(610)에서 RGB 값 255에 대응할 수 있다. 예를 들어, 거리 값이 0(또는 실질적으로 0)이면, 좌표(600)에서 좌표 값은 (1,0,0)이고, 표(610)에서 R 값은 255, G 값은 0, B 값은 0이므로, 빛의 색상은 빨간색일 수 있다. 거리 값이 1m 증가하는 동안에, 좌표(600)에서 G 값은 거리 값에 비례하여 증가할 수 있다. 거리 값이 1이면, 좌표 값은(1,1,0)이고, 표(610)에서 R 값은 255, G 값은 255, B 값은 0이므로, 빛의 색상은 노란색일 수 있다. 동일한 원리로, 거리 값이 1에서 2로 증가하는 동안에, 좌표(600)에서 R 값이 감소하므로, 거리 값이 3이면, 빛의 색상은 초록색일 수 있다. 거리 값이 2에서 3으로 증가하는 동안에, 좌표(600)에서 B 값이 증가하므로, 거리 값이 3이면, 빛의 색상은 시안색 일 수 있다. 거리 값이 3에서 4로 증가하는 동안에, 좌표(600)에서 G 값이 감소하므로, 거리 값이 4이면, 빛의 색상은 파란색 일 수 있다.
도 7은 다양한 실시 예들에 따라 객체(200)의 위치에 기반하여 출력 장치의 개수, 복수의 출력 장치들의 빛의 밝기, 및 색상을 조절하는 동작을 설명할 수 있는 예시도이다.
도 7을 참조하면, 네트워크 환경(700)에서 전자 장치(101)는 거리 값이 가장 작은 출력 장치(F) 및 빛을 출력하는 출력 장치의 개수를 결정할 수 있다. 일 실시 예에 따르면, 출력 장치의 개수는 출력 장치(F)와 객체(200) 간 거리 값에 기반하여 결정될 수 있다. 전자 장치(101)는 객체(200)와 출력 장치(F) 간 거리 값이 감소할수록 출력 장치의 개수가 증가하고, 거리 값이 증가할수록 출력 장치의 개수가 감소하도록 제어할 수 있다. 예를 들어, 거리 값에 기반한 출력 장치의 개수는 하기의 [표 1]로 도시된 예와 같이 결정될 수 있다.
거리 값(단위:m) 0 (또는 0.1) 1 2 3 4 5 6
출력 장치 개수 (단위:개) 13 11 9 7 5 3 1
표 1에 도시된 거리 값 또는 출력 장치의 개수는 예시에 지나지 않으며, 본 문서에 개시된 다양한 실시 예들이 표 1에 도시된 숫자로 제한되는 것은 아니다.
표 1에 도시된 거리 값 또는 출력 장치의 개수는 예시에 지나지 않으며, 본 문서에 개시된 다양한 실시 예들이 표 1에 도시된 숫자로 제한되는 것은 아니다.
일 실시 예에 따르면, 전자 장치(101)는 출력 장치(F)의 빛의 색상을 결정하고, 결정된 빛의 색상에 기반하여 출력 장치(F)와 인접한 위치에 배치된 다른 출력 장치들(A, B, C, D, E, G, H, I, J, K)의 빛의 색상 또는 밝기를 결정할 수 있다. 예를 들어, 출력 장치(F)와 객체(200) 간 거리 값이 1.24m이면, 좌표(600)에서 좌표(F) 값은 (0.76,1,0)이고 출력 장치(F)의 빛의 색상은 노란색일 수 있다. 전자 장치(101)는 출력 장치(F)로부터 멀리 배치된 출력 장치들일수록 빛의 색상은 검은색(black)을 가지도록 제어할 수 있다. 예를 들어, 전자 장치(101)는 좌표(600)에서 출력 장치(G, H, I, J, K)(또는 E, D, C, B, A)의 순서로 좌표 값이 (0,0,0)으로 수렴하도록 제어할 수 있다.
도 8은 다양한 실시 예들에 따라 복수의 객체들(200 및 201)의 위치에 기반하여 빛을 출력하는 동작을 설명한다. 전자 장치(101)가 두 개의 객체들(200 및 201)의 위치를 측정하는 실시 예를 도시하였지만, 객체의 개수는 도 8에 도시된 예로 제한되지 않는다.
도 8을 참조하면, 네트워크 환경(800)에서, 전자 장치(101)는 적어도 하나의 출력 장치(예: 110-1, 110-2, 110-3, 110-4, 110-5, 110-6, 110-7)를 통해 빛을 출력하는 동안에, 제2 객체(201)의 위치를 측정할 수 있다. 예를 들어, 전자 장치(101)는 센서 모듈(176)을 통해 신호를 전송함으로써 제2 객체(201)와 전자 장치(101)(또는, 복수의 출력 장치들(110-1,110-2,...,110-M)) 간 제3 거리 값을 획득할 수 있다. 전자 장치(101)는 제3 거리 값 중 제3 지정된 범위의 거리 값에 속하는 적어도 하나의 제3 거리 값을 결정할 수 있다. 전자 장치(101)는 복수의 출력 장치들(110-1,110-2,...,110-M) 중 적어도 하나의 제3 거리 값에 대응하는 적어도 하나의 제3 출력 장치를 통해 빛을 출력할 수 있다.
일 실시 예에 따르면, 지정된 제3 거리 값은 지정된 제1 거리 값 또는 지정된 제2 거리 값과 동일하거나 다를 수 있다. 예를 들어, 지정된 제3 거리 값이 지정된 제1 거리 값과 동일하면, 전자 장치(101)는 제3 거리 값이 가장 작은(또는, 제2 객체(201)와 정면을 향하는) 출력 장치(110-10)를 통해 빛을 출력할 수 있다. 도 8은 출력 장치(110-10)를 통해 빛을 출력하는 실시 예를 도시하였지만, 전자 장치(101)는 제3 거리 값에 따라서 출력 장치(110-10)를 포함하는 복수의 출력 장치를 통해 빛을 출력할 수 있다. 일 실시 예에 따르면, 제1 객체(200)(예: 도 1의 객체(200))를 향하여 출력되는 빛의 색상과 제2 객체(201)를 향하여 출력되는 빛의 색상은 다를 수 있다.
상술한 방법을 통해, 전자 장치(101)는 복수의 사용자들의 움직임에 반응하여 서로 다른 시각적 효과를 제공함으로써, 복수의 사용자가 전자 장치(101)와 상호작용 하는 것과 같은 사용자 경험을 제공할 수 있다.
도 9는 다양한 실시 예들에 따라 복수의 객체들(200 및 201)의 위치에 기반하여 빛을 출력하는 전자 장치(101)의 동작 흐름도를 도시한다. 도 9에 도시된 동작들은 도 2a의 동작 220 이후에 수행된 동작들을 의미할 수 있다.
도 9를 참조하면, 동작 905에서, 적어도 하나의 제2 출력 장치를 통해 빛이 출력 되는 동안에 전자 장치(101)는 제2 객체(201)와의 제3 거리 값을 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 전자 장치(101)(또는, 복수의 출력 장치들(110-1, 110-2,...,110-M))와 제2 객체(201) 간 제3 거리 값을 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 PIR 센서, 움직임 감지 센서, 거리 센서, 카메라 센서 또는 레이더 센서 중 적어도 하나를 이용하여 객체(200)의 위치를 측정할 수 있다.
동작 910에서, 전자 장치(101)는 제3 거리 값에 기반하여 결정된 적어도 하나의 제3 출력 장치를 통해 빛을 출력할 수 있다. 예를 들어, 전자 장치(101)는 제3 거리 값들 중 제3 지정된 범위의 거리 값에 속하는 적어도 하나의 제3 거리 값을 결정하고, 복수의 출력 장치들(110-1, 110-2,...,110-M) 중 적어도 하나의 제3 거리 값에 대응하는 적어도 하나의 제3 출력 장치를 통해 빛을 출력할 수 있다. 전자 장치(101)는 적어도 하나의 제2 출력 장치를 통해 빛이 출력되는 동안에 적어도 하나의 제3 출력 장치를 통해 빛을 출력할 수 있다. 적어도 하나의 제3 출력 장치를 통해 출력되는 빛의 색상은 적어도 하나의 제2 출력 장치를 포함하는 적어도 하나의 출력 장치로부터 출력되는 빛의 색상과 다를 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 복수의 객체들에 대한 빛을 출력하는 동작을 선택적으로 수행할 수 있다. 예를 들어, 제1 모드에서, 전자 장치(101)는 도 8의 실시 예에 도시된 바와 같이 복수의 객체들에 대한 빛을 출력할 수 있다. 다른 예를 들어, 제2 모드에서, 전자 장치(101)는 전력 소모를 줄이기 위하여 제2 객체(201)를 감지하더라도 제2 객체(201)를 향하여 빛을 출력하지 않을 수 있다. 일 실시 예에 따르면, 제1 모드 및 제2 모드는 사용자 입력에 따라 결정되거나, 전자 장치(101)의 배터리 잔존 용량에 기반하여 전자 장치(101)(예: 프로세서(120))가 결정할 수 있다.
도 10은 다양한 실시 예들에 따라 복수의 객체들의 위치에 기반하여 빛의 색상을 변경하는 동작을 설명할 수 있는 예시도이다.
도 10을 참조하면, 네트워크 환경(1000)에서 전자 장치(101)는 객체(200)와 거리 값이 가장 작은 출력 장치(8) 및 제2 객체(201)와 거리 값이 가장 작은 출력 장치(3)의 빛의 색상을 결정할 수 있다. 예를 들어, 전자 장치(101)는 출력 장치(3)의 빛의 색상은 시안색, 출력 장치(8)의 빛의 색상은 초록색으로 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 결정된 빛의 색상에 기반하여 출력 장치(8) 및 출력 장치(3)와 인접한 위치에 배치된 다른 출력 장치들의 빛의 색상 또는 밝기를 결정할 수 있다. 전자 장치(101)는 출력 장치(8) 및 출력 장치(3)와 멀리 배치된 출력 장치들일수록 빛의 색상은 검은색을 가지도록 제어할 수 있다. 예를 들어, 전자 장치(101)는 좌표(600)에서 경로(1020)을 따라서 출력 장치(2, 1)(또는 9, 10, 11)의 순서로 좌표 값이 (0,0,0)으로 수렴하도록 제어할 수 있다. 전자 장치(101)는 객체(200)를 향하도록 빛을 출력하는 복수의 출력 장치들(5, 6, 7, 8, 9, 10, 11)과 제2 객체(201)를 향하도록 빛을 출력하는 복수의 출력 장치들(1, 2, 3, 4, 5) 중 다른 출력 장치들과 중첩되는 출력 장치들일수록 빛의 색상은 흰색(white)을 가지도록 제어할 수 있다. 예를 들어, 전자 장치(101)는 좌표(600)에서 경로(1010)을 따라서 출력 장치(4, 5)(또는 7, 6, 5)의 순서로 좌표 값이 (1,1,1)으로 수렴하도록 제어할 수 있다. 상술한 방법을 통해, 전자 장치(101)는 빛을 출력하는 출력 장치들이 중첩되면, 빛의 색상을 조절함으로써 사용자의 혼동을 방지할 수 있다.
도 11은 다양한 실시 예들에 따라 거리 값 및 임계 거리(1110)에 기반하여 빛을 출력하는 동작을 설명할 수 있는 예시도이다.
도 11을 참조하면, 네트워크 환경(1101)에서, 전자 장치(101)는 임계 거리(1110)를 가질 수 있다. 전자 장치(101)는 가장 작은 거리 값을 가지는 출력 장치(110-1)와 객체(200) 간 거리 값이 임계 거리(1110)를 초과하면 복수의 출력 장치들(110-1, 110-2, 110-3,....,110-M)이 빛을 출력하지 않도록 제어할 수 있다. 예를 들어, 객체(200)가 제1 위치(200-1)에 위치하면, 객체(200)와 가장 가까운 위치에 배치된 출력 장치(110-1)와 객체(200) 간 거리 값(1105)이 임계 거리(1110)보다 작으므로, 전자 장치(101)는 출력 장치(110-1)를 통해 빛을 출력할 수 있다. 다른 예를 들어, 객체(200)가 제2 위치(200-5)에 위치하면, 객체(200)와 가장 가까운 위치에 배치된 출력 장치(110-1)와 객체(200) 간 거리 값(1107)이 임계 거리(1110)보다 크므로, 전자 장치(101)는 출력 장치(110-1)가 빛을 출력하지 않도록 제어할 수 있다. 전자 장치(101)는 객체(200)가 임계 거리(1110)를 벗어나면 복수의 출력 장치들(110-1, 110-2, 110-3,...,110-M)이 빛을 출력하지 않도록 제어함으로써 전력 소모를 줄일 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 임계 거리 밖(예: 제2 위치(200-5)에 위치한 객체(200)가 임계 거리의 경계로 이동하면, 출력 장치(110-1)를 포함한 적어도 하나의 출력 장치를 통해 시각적 효과를 제공할 수 있다. 예를 들어, 전자 장치(101)는 빛이 일정 시간 동안에 깜빡이는 효과(깜빡임 효과), 빛을 출력하는 출력 장치가 출력 장치(110-1)를 중심으로 양쪽으로 확산되는 효과(주변 확산 효과), 또는 빛을 출력하는 출력 장치가 일 방향으로 이동하는 효과(슬라이딩 효과)를 제공할 수 있다.
도 12는 다양한 실시 예들에 따라 거리 값 및 임계 거리(1110)에 기반하여 빛을 출력하는 전자 장치(101)의 동작 흐름도를 도시한다. 도 12에 도시된 동작들은 도 2a의 동작 205 및 210이 보다 구체적으로 수행된 동작들을 의미할 수 있다.
도 12를 참조하면, 동작 1205에서, 전자 장치(101)는 객체(200)와의 제1 거리 값을 획득할 수 있다. 예를 들어, 전자 장치(101)는 전자 장치(101)(또는, 복수의 출력 장치들(110-1, 110-2,...,110-M))와 객체(200) 간 제1 거리 값을 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 UWB 기술을 이용하여 제1 거리 값들을 획득할 수 있다.
동작 1210에서, 전자 장치(101)는 제1 거리 값들 중 가장 작은 제1 거리 값(예: 도 11의 1105)이 임계 거리 값 미만인지 여부를 확인할 수 있다. 제1 거리 값이 임계 거리 값 미만이면 전자 장치(101)는 동작 1215를 수행할 수 있다. 제1 거리 값이 임계 거리 값 초과이면, 전자 장치(101)는 동작 1220을 수행할 수 있다.
동작 1215에서, 전자 장치(101)는 출력 장치들이 빛을 출력하도록 제어할 수 있다. 예를 들어, 전자 장치(101)는 제1 거리 값이 가장 작은 출력 장치(예: 도 11의 110-1)를 포함하는 적어도 하나의 출력 장치를 통해 빛을 출력할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 깜빡임 효과, 주변 확산 효과, 또는 슬라이딩 효과를 제공함으로써, 전자 장치(101)가 사용자를 반기는 듯한 느낌을 전달할 수 있다.
동작 1220에서, 전자 장치(101)는 출력 장치들이 빛을 출력하지 않도록 제어할 수 있다. 전자 장치(101)는 복수의 출력 장치들(110-1, 110-2,...,110-M)이 빛을 출력하지 않도록 제어함으로써 전력 소모를 줄일 수 있다.
도 13은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 13을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
다양한 실시예들에 따르면, 전자 장치(예: 도 3의 전자 장치(101))는, 하우징(예: 도 3의 하우징 (105)), 상기 하우징의 일부를 통해 시각적으로 노출되고, 서로 다른 위치에 배치되는 복수의 출력 장치들(예: 도 3의 출력 장치 110-1, 110-2,..., 110-M), 상기 하우징 내에 위치하고, 상기 복수의 출력 장치들이 배치된 위치와 인접한 위치에 배치되는 적어도 하나의 센서(예: 도 3의 센서 모듈(176)), 및 상기 하우징 내에 위치하고, 상기 복수의 출력 장치들 및 상기 적어도 하나의 센서와 작동적으로 연결되는 프로세서(예: 도 3의 프로세서(120))를 포함할 수 있다. 상기 프로세서는, 상기 적어도 하나의 센서를 이용하여 출력된 제1 신호를 통해, 상기 복수의 출력 장치들과 객체 간 복수의 제1 거리 값들을 획득하고, 상기 복수의 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 제1 거리 값에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제1 출력 장치를 통해 빛을 출력하고, 상기 빛이 출력된 이후에 상기 객체의 움직임을 감지하고, 상기 움직임이 감지되는 것에 응답하여, 상기 적어도 하나의 센서를 이용하여 출력된 제2 신호를 통해, 상기 복수의 출력 장치들과 상기 객체 간 복수의 제2 거리 값들을 획득하고, 상기 복수의 제2 거리 값들 중 제2 지정된 범위의 값에 속하는 적어도 하나의 제2 거리에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제2 출력 장치를 통해 빛을 출력하도록 설정될 수 있다.
일 실시예에 따르면, 상기 하우징의 적어도 일부는 원형 형태, 직선형, 삼각형, 정사각형, 직사각형, 다각형 또는 타원형 형태를 포함하고, 상기 복수의 출력 장치들은 지정된 간격으로 상기 하우징을 둘러싸도록 배치될 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 제2 거리 값이 상기 제1 거리 값보다 작으면, 빛을 출력하는 출력 장치의 개수가 증가하도록 상기 복수의 출력 장치들을 제어하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 제1 거리 값 또는 상기 제2 거리 값 중 적어도 하나에 기반하여 상기 적어도 하나의 출력 장치로부터 출력되는 빛의 밝기 또는 색상을 변경하도록 상기 복수의 출력 장치들을 제어할 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 적어도 하나의 센서로부터 출력되는 제3 신호를 통해, 상기 복수의 출력 장치들과 제2 객체 간 복수의 제3 거리 값들을 획득하고, 상기 적어도 하나의 제2 출력 장치를 통해 빛이 출력되는 동안에, 상기 복수의 제3 거리 값들 중 제3 지정된 범위의 값에 속하는 적어도 하나의 제3 거리에 기반하여, 상기 복수의 출력 장치들 중에서 선택된 적어도 하나의 제3 출력 장치를 통해 빛을 출력하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 적어도 하나의 제2 출력 장치로부터 출력되는 제1 빛의 색상과 상기 적어도 하나의 제3 출력 장치로부터 출력되는 제2 빛의 색상이 다르도록 상기 복수의 출력 장치들을 제어할 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 적어도 하나의 제2 출력 장치와 상기 적어도 하나의 제3 출력 장치를 포함하는 출력 장치들 중 중첩되는 적어도 하나의 출력 장치를 통해, 상기 제1 빛의 색상 및 상기 제2 빛의 색상과 다른 색상을 가지는 제3 빛을 출력하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 제2 거리 값들이 임계 거리 값을 초과하면, 상기 복수의 출력 장치들이 빛을 출력하지 않도록 제어할 수 있다.
다양한 실시예들에 따르면, 전자 장치(예: 도 3의 전자 장치(101))는, 상기 전자 장치에 포함되는, 복수의 출력 장치들과 객체 간 복수의 제1 거리 값들을 획득하는 동작(예: 도 2의 동작 205), 상기 복수의 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 제1 거리 값에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제1 출력 장치 통해 빛을 출력하는 동작(예: 도 2의 동작 210), 상기 빛이 출력된 이후 상기 객체의 위치가 변경된 것에 응답하여, 상기 복수의 출력 장치들과 상기 객체 간 복수의 제2 거리 값들을 획득하고(예: 도 2의 동작 215), 상기 복수의 제2 거리 값들 중 제2 지정된 범위의 값에 속하는 적어도 하나의 제2 거리에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제2 출력 장치를 통해 빛을 출력하는 동작(예: 도 2의 동작 220)을 포함하는 방법을 수행할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 제2 출력 장치를 통해 빛을 출력하는 동작은, 상기 제2 거리 값이 상기 제1 거리 값보다 작으면, 빛을 출력하는 출력 장치의 개수가 증가하도록 상기 복수의 출력 장치들을 제어하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 제2 출력 장치를 통해 빛을 출력하는 동작은, 상기 제1 거리 값 및 상기 제2 거리 값 중 적어도 하나에 기반하여 상기 적어도 하나의 출력 장치로부터 출력되는 빛의 밝기 또는 색상을 변경하도록 상기 복수의 출력 장치들을 제어하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치의 방법은 상기 복수의 출력 장치들과 제2 객체 간 복수의 제3 거리 값들을 획득하는 동작, 상기 적어도 하나의 제2 출력 장치를 통해 빛이 출력되는 동안에, 상기 복수의 제3 거리 값들 중 제3 지정된 범위의 값에 속하는 적어도 하나의 제3 거리에 기반하여, 상기 복수의 출력 장치들 중에서 선택된 적어도 하나의 제3 출력 장치를 통해 빛을 출력하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 제3 출력 장치를 통해 빛을 출력하는 동작은, 상기 적어도 하나의 제2 출력 장치를 통해 출력되는 제1 빛의 색상과 상기 적어도 하나의 제3 출력 장치를 통해 출력되는 제2 빛의 색상이 다르도록 상기 복수의 출력 장치들을 제어하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 제3 출력 장치를 통해 빛을 출력하는 동작은, 상기 적어도 하나의 제2 출력 장치와 상기 적어도 하나의 제3 출력 장치 중 중첩되는 출력 장치들을 통해, 상기 제1 빛의 색상 및 상기 제2 빛의 색상과 다른 색상을 가지는 제3 빛을 출력하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 제2 거리 값들이 임계 거리 값을 초과하면, 상기 복수의 출력 장치들이 빛을 출력하지 않도록 제어하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 전자 장치(예: 도 3의 전자 장치(101))는, 센서(예: 도 3의 센서 모듈(176)), 복수의 발광 소자들(예: 도 3츼 출력장치(110-1, 110-2,...,110-M), 및 프로세서(예: 도 3의 프로세서(120))를 포함할 수 있다. 상기 프로세서는, 상기 센서를 이용하여 외부 객체와의 거리 및 방향을 감지하고, 상기 외부 객체와의 거리에 따라, 상기 복수의 발광 소자들 중 상기 외부 객체와의 방향에 대응하는 제1 발광 소자 그룹을 지정하고, 및 상기 외부 객체와의 거리 또는 상기 외부 객체와의 방향에 적어도 기반하여, 상기 외부 객체와 관련된 정보를 상기 제1 발광 소자 그룹을 이용하여 출력하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 센서를 이용하여 지정된 다른 외부 객체와의 거리 및 방향을 감지하고, 상기 다른 외부 객체와의 거리에 따라, 상기 복수의 발광 소자들 중 상기 제2 객체와의 방향에 대응하는 제2 발광 소자 그룹을 지정하고, 및 상기 다른 외부 객체와의 거리 또는 상기 외부 객체와의 방향에 적어도 기반하여, 상기 제2 발광 소자 그룹에 포함되는 하나 이상의 발광 소자를 이용하여 상기 다른 외부 객체와 연관된 정보를 출력하도록 설정될 수 있다.
일 실시예에 따르면, 상기 제1 발광 소자 그룹에 포함되는 하나 이상의 발광 소자는 상기 제2 발광 소자 그룹에 포함될 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 외부 객체와의 거리에 따라 상기 제1 발광 소자 그룹에 포함되는 발광 소자의 개수, 상기 외부 객체와 관련된 정보의 색상, 또는 상기 외부 객체와 관련된 정보의 출력 세기 중 적어도 하나를 제어하도록 설정될 수 있다.
일 실시예에 따르면, 상기 센서는, UWB 기술을 지원하고, 상기 복수의 발광 소자들과 인접한 위치에 배치될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    하우징;
    상기 하우징의 일부를 통해 시각적으로 노출되고, 서로 다른 위치에 배치되는 복수의 출력 장치들;
    상기 하우징 내에 위치하고, 상기 복수의 출력 장치들이 배치된 위치와 인접한 위치에 배치되는 적어도 하나의 센서; 및
    상기 하우징 내에 위치하고, 상기 복수의 출력 장치들 및 상기 적어도 하나의 센서와 작동적으로 연결되는 프로세서를 포함하고, 상기 프로세서는,
    상기 적어도 하나의 센서를 이용하여 출력된 제1 신호를 통해, 상기 복수의 출력 장치들과 객체 간 복수의 제1 거리 값들을 획득하고,
    상기 복수의 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 제1 거리 값에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제1 출력 장치를 통해 빛을 출력하고,
    상기 빛이 출력된 이후에 상기 객체의 움직임을 감지하고,
    상기 움직임이 감지되는 것에 응답하여, 상기 적어도 하나의 센서를 이용하여 출력된 제2 신호를 통해, 상기 복수의 출력 장치들과 상기 객체 간 복수의 제2 거리 값들을 획득하고,
    상기 복수의 제2 거리 값들 중 제2 지정된 범위의 값에 속하는 적어도 하나의 제2 거리에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제2 출력 장치를 통해 빛을 출력하도록 설정된, 전자 장치.
  2. 청구항 1에 있어서, 상기 하우징의 적어도 일부는 원형 형태, 직선형, 삼각형, 정사각형, 직사각형, 다각형 또는 타원형 형태를 포함하고,
    상기 복수의 출력 장치들은 지정된 간격으로 상기 하우징을 둘러싸도록 배치되는, 전자 장치.
  3. 청구항 1에 있어서, 상기 프로세서는,
    상기 제2 거리 값이 상기 제1 거리 값보다 작으면, 빛을 출력하는 출력 장치의 개수가 증가하도록 상기 복수의 출력 장치들을 제어하는, 전자 장치.
  4. 청구항 1에 있어서, 상기 프로세서는,
    상기 제1 거리 값 또는 상기 제2 거리 값 중 적어도 하나에 기반하여 상기 적어도 하나의 출력 장치로부터 출력되는 빛의 밝기 또는 색상을 변경하도록 상기 복수의 출력 장치들을 제어하는, 전자 장치.
  5. 청구항 1에 있어서, 상기 프로세서는,
    상기 적어도 하나의 센서로부터 출력되는 제3 신호를 통해, 상기 복수의 출력 장치들과 제2 객체 간 복수의 제3 거리 값들을 획득하고,
    상기 적어도 하나의 제2 출력 장치를 통해 빛이 출력되는 동안에, 상기 복수의 제3 거리 값들 중 제3 지정된 범위의 값에 속하는 적어도 하나의 제3 거리에 기반하여, 상기 복수의 출력 장치들 중에서 선택된 적어도 하나의 제3 출력 장치를 통해 빛을 출력하도록 설정된, 전자 장치.
  6. 청구항 5에 있어서, 상기 프로세서는,
    상기 적어도 하나의 제2 출력 장치로부터 출력되는 제1 빛의 색상과 상기 적어도 하나의 제3 출력 장치로부터 출력되는 제2 빛의 색상이 다르도록 상기 복수의 출력 장치들을 제어하는, 전자 장치.
  7. 청구항 6에 있어서, 상기 프로세서는,
    상기 적어도 하나의 제2 출력 장치와 상기 적어도 하나의 제3 출력 장치를 포함하는 출력 장치들 중 중첩되는 적어도 하나의 출력 장치를 통해, 상기 제1 빛의 색상 및 상기 제2 빛의 색상과 다른 색상을 가지는 제3 빛을 출력하도록 설정된, 전자 장치.
  8. 청구항 1에 있어서, 상기 프로세서는,
    상기 제2 거리 값들이 임계 거리 값을 초과하면, 상기 복수의 출력 장치들이 빛을 출력하지 않도록 제어하는, 전자 장치.
  9. 전자 장치의 방법에 있어서,
    상기 전자 장치에 포함되는, 복수의 출력 장치들과 객체 간 복수의 제1 거리 값들을 획득하는 동작;
    상기 복수의 제1 거리 값들 중 제1 지정된 범위의 거리 값에 속하는 적어도 하나의 제1 거리 값에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제1 출력 장치 통해 빛을 출력하는 동작;
    상기 빛이 출력된 이후 상기 객체의 위치가 변경된 것에 응답하여, 상기 복수의 출력 장치들과 상기 객체 간 복수의 제2 거리 값들을 획득하는 동작; 및
    상기 복수의 제2 거리 값들 중 제2 지정된 범위의 값에 속하는 적어도 하나의 제2 거리에 기반하여, 상기 복수의 출력 장치들 중 선택된 적어도 하나의 제2 출력 장치를 통해 빛을 출력하는 동작을 포함하는, 방법.
  10. 청구항 9에 있어서, 상기 적어도 하나의 제2 출력 장치를 통해 빛을 출력하는 동작은,
    상기 제2 거리 값이 상기 제1 거리 값보다 작으면, 빛을 출력하는 출력 장치의 개수가 증가하도록 상기 복수의 출력 장치들을 제어하는 동작을 포함하는, 방법.
  11. 청구항 9에 있어서, 상기 적어도 하나의 제2 출력 장치를 통해 빛을 출력하는 동작은,
    상기 제1 거리 값 및 상기 제2 거리 값 중 적어도 하나에 기반하여 상기 적어도 하나의 출력 장치로부터 출력되는 빛의 밝기 또는 색상을 변경하도록 상기 복수의 출력 장치들을 제어하는 동작을 포함하는, 방법.
  12. 청구항 9에 있어서,
    상기 복수의 출력 장치들과 제2 객체 간 복수의 제3 거리 값들을 획득하는 동작; 및
    상기 적어도 하나의 제2 출력 장치를 통해 빛이 출력되는 동안에, 상기 복수의 제3 거리 값들 중 제3 지정된 범위의 값에 속하는 적어도 하나의 제3 거리에 기반하여, 상기 복수의 출력 장치들 중에서 선택된 적어도 하나의 제3 출력 장치를 통해 빛을 출력하는 동작을 포함하는, 방법.
  13. 청구항 12에 있어서, 상기 적어도 하나의 제3 출력 장치를 통해 빛을 출력하는 동작은,
    상기 적어도 하나의 제2 출력 장치를 통해 출력되는 제1 빛의 색상과 상기 적어도 하나의 제3 출력 장치를 통해 출력되는 제2 빛의 색상이 다르도록 상기 복수의 출력 장치들을 제어하는 동작을 포함하는, 방법.
  14. 청구항 13에 있어서, 상기 적어도 하나의 제3 출력 장치를 통해 빛을 출력하는 동작은,
    상기 적어도 하나의 제2 출력 장치와 상기 적어도 하나의 제3 출력 장치 중 중첩되는 출력 장치들을 통해, 상기 제1 빛의 색상 및 상기 제2 빛의 색상과 다른 색상을 가지는 제3 빛을 출력하는 동작을 포함하는, 방법.
  15. 청구항 9에 있어서,
    상기 제2 거리 값들이 임계 거리 값을 초과하면, 상기 복수의 출력 장치들이 빛을 출력하지 않도록 제어하는 동작을 더 포함하는, 방법.
PCT/KR2019/000822 2018-06-25 2019-01-21 사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하는 전자 장치 및 그에 관한 방법 WO2020004758A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/256,460 US11432389B2 (en) 2018-06-25 2019-01-21 Electronic device for providing visual effect based on location of user by using light-emitting device and method thereof
CN201980042722.4A CN112400082B (zh) 2018-06-25 2019-01-21 基于用户的位置使用发光元件提供视觉效果的电子装置及其方法
EP19826842.7A EP3795898B1 (en) 2018-06-25 2019-01-21 Electronic device for providing visual effect by using light-emitting device on basis of user location, and method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0072572 2018-06-25
KR1020180072572A KR102532426B1 (ko) 2018-06-25 2018-06-25 사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하는 전자 장치 및 그에 관한 방법

Publications (1)

Publication Number Publication Date
WO2020004758A1 true WO2020004758A1 (ko) 2020-01-02

Family

ID=68984464

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/000822 WO2020004758A1 (ko) 2018-06-25 2019-01-21 사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하는 전자 장치 및 그에 관한 방법

Country Status (5)

Country Link
US (1) US11432389B2 (ko)
EP (1) EP3795898B1 (ko)
KR (1) KR102532426B1 (ko)
CN (1) CN112400082B (ko)
WO (1) WO2020004758A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI800188B (zh) * 2021-12-29 2023-04-21 群光電子股份有限公司 影像擷取裝置及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101019745B1 (ko) * 2006-11-20 2011-03-08 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR101312984B1 (ko) * 2011-12-27 2013-10-01 서울과학기술대학교 산학협력단 가시광 led 카메라 보안 시스템
KR101393709B1 (ko) * 2012-08-14 2014-05-13 서울과학기술대학교 산학협력단 객체연속감지가 가능한 초음파센서와 적외선센서로 이루어진 하이브리드형 led 조명등
KR20160121287A (ko) * 2015-04-10 2016-10-19 삼성전자주식회사 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치
JP2017073256A (ja) * 2015-10-06 2017-04-13 パナソニックIpマネジメント株式会社 照明制御装置及び照明システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7202613B2 (en) * 2001-05-30 2007-04-10 Color Kinetics Incorporated Controlled lighting methods and apparatus
US7358929B2 (en) * 2001-09-17 2008-04-15 Philips Solid-State Lighting Solutions, Inc. Tile lighting methods and systems
JP2008310397A (ja) 2007-06-12 2008-12-25 Dx Antenna Co Ltd センサライト
KR101279298B1 (ko) 2011-08-02 2013-06-26 (주) 희림종합건축사사무소 무접점 전환스위치가 장착된 욕실등 및 그 제어방법
WO2013084158A1 (en) 2011-12-08 2013-06-13 Koninklijke Philips Electronics N.V. A luminaire
RU2623491C2 (ru) * 2012-02-16 2017-06-27 Филипс Лайтинг Холдинг Б.В. Устройство и способы конфигурации освещения с использованием датчиков расстояния
US9345091B2 (en) * 2013-02-08 2016-05-17 Cree, Inc. Light emitting device (LED) light fixture control systems and related methods
EP3092872B8 (en) * 2014-01-08 2019-04-10 Signify Holding B.V. Lighting unit providing reduced intensity light output based on user proximity and related methods
US9766463B2 (en) * 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
KR101659428B1 (ko) 2014-05-21 2016-09-27 한국산업기술대학교산학협력단 사용자 단말기와 연동되는 복합 조명 시스템
KR101583319B1 (ko) 2014-06-16 2016-01-21 동아대학교 산학협력단 도로의 곡선구간용 델리네이터
KR20160049415A (ko) 2014-10-27 2016-05-09 에드뷰시스템 (주) 절전 및 보안 기능을 구비한 전등 시스템
US9609722B2 (en) * 2015-08-17 2017-03-28 The Coleman Company, Inc. Multi-mode lighting system with proximity sensor
KR102374266B1 (ko) * 2015-10-02 2022-03-18 삼성전자주식회사 백색 발광 모듈 및 led 조명 장치
KR102432620B1 (ko) * 2015-11-12 2022-08-16 삼성전자주식회사 외부 객체의 근접에 따른 동작을 수행하는 전자 장치 및 그 방법
CN106341924B (zh) * 2016-09-20 2017-09-26 浙江农林大学 一种感应环境的led夜灯的控制方法及装置
US10591136B2 (en) * 2017-03-24 2020-03-17 Panasonic Intellectual Property Management Co., Ltd. Artificial skylight utilizing light-guides for enhanced display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101019745B1 (ko) * 2006-11-20 2011-03-08 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR101312984B1 (ko) * 2011-12-27 2013-10-01 서울과학기술대학교 산학협력단 가시광 led 카메라 보안 시스템
KR101393709B1 (ko) * 2012-08-14 2014-05-13 서울과학기술대학교 산학협력단 객체연속감지가 가능한 초음파센서와 적외선센서로 이루어진 하이브리드형 led 조명등
KR20160121287A (ko) * 2015-04-10 2016-10-19 삼성전자주식회사 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치
JP2017073256A (ja) * 2015-10-06 2017-04-13 パナソニックIpマネジメント株式会社 照明制御装置及び照明システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3795898A4 *

Also Published As

Publication number Publication date
CN112400082B (zh) 2023-06-23
KR20200000581A (ko) 2020-01-03
EP3795898B1 (en) 2023-05-03
CN112400082A (zh) 2021-02-23
US11432389B2 (en) 2022-08-30
EP3795898A4 (en) 2021-08-11
KR102532426B1 (ko) 2023-05-15
EP3795898A1 (en) 2021-03-24
US20210378073A1 (en) 2021-12-02

Similar Documents

Publication Publication Date Title
WO2019107803A1 (en) Printed circuit board including electroconductive pattern and electronic device including printed circuit board
WO2021241964A1 (ko) 롤러블 디스플레이를 구비한 전자 장치
WO2022131549A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2020171339A1 (ko) 프로젝터를 포함하는 전자 장치
WO2019209075A1 (ko) 외부 전자 장치를 제어하는 전자 장치 및 방법
WO2020153738A1 (ko) 카메라 모듈에 접지 노드를 연결하기 위한 전자 장치 및 방법
WO2020111727A1 (ko) 전자 장치 및 전자 장치의 제어 방법
WO2021149938A1 (en) Electronic device and method for controlling robot
WO2021230568A1 (ko) 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법
WO2020004758A1 (ko) 사용자의 위치에 기반하여 발광 소자를 이용한 시각적 효과를 제공하는 전자 장치 및 그에 관한 방법
WO2020130579A1 (ko) 이미지 처리 방법 및 그 전자 장치
WO2020204291A1 (ko) 전자 장치 및 그의 발열 제어 방법
WO2019203425A1 (ko) 공진 주파수가 변경된 전자 펜의 신호를 처리하기 위한 장치 및 방법
WO2020085712A1 (ko) 전자 장치 및 전자 장치의 위치 측정 방법
WO2020071647A1 (ko) 도전성 접착 부재를 통해 디스플레이와 도전성 지지부재를 연결하는 구조를 갖는 전자 장치
WO2022139164A1 (ko) 전자 장치 및 전자 장치에서 외부 장치들을 공간별로 그룹핑 하는 방법
WO2022169085A1 (ko) 전자 장치 및 전자 장치에서 촬영 구도 유지 방법
WO2021162241A1 (ko) 이미지 센서 제어 방법 및 장치
WO2022050620A1 (ko) 검출 회로 및 이를 포함하는 전자 장치
WO2021225333A1 (ko) 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법
WO2020022617A1 (ko) 복수의 방향으로 배치된 복수의 배열 안테나들을 이용하여 외부 오브젝트를 감지하는 전자 장치 및 그에 관한 방법
WO2021158043A1 (ko) 전자 장치 및 오토 포커스 수행 방법
WO2020171607A1 (ko) 온도 변화에 따른 오류 터치를 방지하는 터치 회로, 터치 회로를 포함하는 전자 장치 및 그 동작 방법
WO2020246853A1 (en) External device including at least one antenna, and electronic device and method for improving antenna performance using same
WO2020213845A1 (ko) 액세서리를 인식하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19826842

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019826842

Country of ref document: EP

Effective date: 20201216