WO2022154483A1 - 전자 장치 및 전자 장치의 동작 방법 - Google Patents

전자 장치 및 전자 장치의 동작 방법 Download PDF

Info

Publication number
WO2022154483A1
WO2022154483A1 PCT/KR2022/000569 KR2022000569W WO2022154483A1 WO 2022154483 A1 WO2022154483 A1 WO 2022154483A1 KR 2022000569 W KR2022000569 W KR 2022000569W WO 2022154483 A1 WO2022154483 A1 WO 2022154483A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
user
information
external electronic
processor
Prior art date
Application number
PCT/KR2022/000569
Other languages
English (en)
French (fr)
Inventor
김현주
배보람
손태환
양구현
김정미
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/671,992 priority Critical patent/US20220221930A1/en
Publication of WO2022154483A1 publication Critical patent/WO2022154483A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices

Definitions

  • Specific embodiments disclosed in this document relate to an electronic device and an operating method of the electronic device, and more particularly, to an electronic device and an operating method of the electronic device that provide feedback of a user's motion with respect to an object motion in content.
  • a user may acquire various types of data such as photos, texts, voices, and videos from external media sources.
  • the video sharing platform is activated, the user can easily acquire multimedia and video.
  • exercise videos acquired from such a video sharing platform often do not provide specific information about the motion, and the user cannot receive specific feedback on whether his or her posture is correct, thus increasing the likelihood of injury. .
  • videos of various topics such as exercise, education, games, and cooking.
  • the specific embodiments disclosed in this document analyze the content included in the shared videos and the configuration of the related video with respect to the shared video acquired from an external media source (eg, a third-party app), and determine the accuracy of the motion to assist the motion and Guide information can be provided.
  • an external media source eg, a third-party app
  • the electronic device of the specific embodiments disclosed in this document analyzes the acquired video, classifies a section (exercise or dance performed by an object in the video, etc.) including motions that the user can follow, and performs the motions.
  • the connected external electronic devices may be functionally combined to facilitate the user to accurately follow the depicted operation.
  • the electronic device disclosed in this document analyzes an exercise video uploaded to an external media source, divides a section by type of motion, and operates by interoperating with other external electronic devices that a user can use by using this information. can be followed more precisely.
  • the information may include a description of an exercise, a count of an appropriate number of repetitions, a determination of a user's shape and/or an error in an operation, etc.
  • An external electronic device tracks a motion, an image capturing device such as a smartphone, and measures the user's motion It may include a wearable device capable of performing the function, an audio input device capable of providing an audio guide, and the like. Accordingly, it is possible to provide a user interface for operating one or more formats that can help exercise.
  • the user interface may display the number of repetitions output as text, the total exercise time, and section-specific exercise motion information centered on a specific exercise motion. Accordingly, the user can exercise while viewing an exercise video obtained from an external media source and an image of himself without using an application that provides auxiliary information. The user can exercise accuracy, repetition count, and/or a corresponding device or linkage. You can receive feedback from bio-tracking such as heart rate and calorie information measured by the device.
  • bio-tracking such as heart rate and calorie information measured by the device.
  • the present invention solves a technical problem related to the operation of an electronic device and increases user convenience in the operation of the electronic device.
  • the technical problem to be achieved in this document is not limited to the technical problem mentioned above, Another technical problem will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.
  • An electronic device includes a display; camera; a memory for temporarily or non-temporarily storing content; and a processor operatively connected to the display, the camera, and the memory, wherein the processor analyzes at least one image of the content to generate corrected posture information from an object included in the at least one image, While the content is displayed, an image including a first user is captured through the camera, and the image including the first user is analyzed to generate first posture information of the first user, and the corrected posture information and the first posture information are compared to generate first feedback information to be provided to the first user, and properties of the first feedback information, a function of the first external electronic device, the number of users, and stored users and the first feedback information are generated. It may be configured to select the first external electronic device to which the first feedback information is to be transmitted based on any one of relationships among external electronic devices, and to transmit the first feedback information to the selected first external electronic device.
  • An operating method of an electronic device may include analyzing at least one image included in stored content and generating corrected posture information of an object included in the at least one image; while displaying the content, capturing an image including the first user through a camera; generating first posture information of the first user by analyzing the image including the first user; generating first feedback information to be provided to the first user by comparing the corrected posture information with the first posture information; The first external electronic device to transmit the first feedback information based on any one of a property of the first feedback information, a function of the first external electronic device, the number of users, and a relationship between the stored users and the first external electronic device action to select; and transmitting the first feedback information to the selected first external electronic device.
  • a user may be provided with an exercise motion guide and auxiliary information to perform the exercise described in the shared exercise video more accurately without the help of a personal trainer.
  • the user may be provided with the exercise assistance information without limiting the content.
  • the user who follows the motion is provided with feedback regarding the accuracy of his/her own posture, so that the user can correct the posture and motion to increase the exercise effect and prevent injury.
  • a multi-device environment for exercise may be provided by providing exercise assistance information separated for each external electronic device based on an attribute of the exercise assistance information and/or a specific function of the external electronic device.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to certain embodiments.
  • FIG. 2 is a block diagram of an electronic device according to certain embodiments disclosed herein.
  • FIG. 3 is a flowchart illustrating a method in which a processor controls an electronic device to provide feedback of a user action with respect to an object action in content according to certain embodiments disclosed in this document.
  • FIG. 4 is a diagram illustrating an electronic device and an external electronic device related to the electronic device according to specific embodiments described in this document.
  • 5A and 5B are diagrams illustrating examples of content screens according to certain embodiments described in this document.
  • 5C and 5D are diagrams illustrating an example of a user screen including a user, according to certain embodiments described in this document.
  • 5E and 5F are diagrams illustrating examples of displaying a content screen and a user screen according to certain embodiments.
  • FIG. 6 is a diagram illustrating an example of a second external electronic device connected to the electronic device according to certain embodiments.
  • FIGS. 7A, 7B, and 7C are diagrams illustrating an example in which a processor controls an external electronic device to output various information from the external electronic device according to certain embodiments.
  • 8A, 8B, 8C, 8D, and 8E are diagrams for explaining an example of a UI included in an electronic device according to certain embodiments disclosed in this document.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to certain embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with at least one of the electronic device 104 and the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 .
  • at least one of these components eg, the connection terminal 178
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in , process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in , process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a
  • the secondary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or when the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190 ). have.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176 ) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used by a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 , or an external electronic device (eg, a sound output module 155 ) connected directly or wirelessly with the electronic device 101 .
  • the electronic device 102) eg, a speaker or headphones
  • the electronic device 102 may output a sound.
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more specified protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a local area network (LAN) communication module, or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : It may include a local area network (LAN) communication module, or a power line communication module.
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 uses various techniques for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements defined in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: Downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less) can be supported.
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • the server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • FIG. 2 is a block diagram of an electronic device according to certain embodiments disclosed herein.
  • an electronic device eg, the electronic device 101 of FIG. 1
  • 200 includes a processor (eg, the processor 120 of FIG. 1 ) 250 , and a memory (eg, the memory 130 of FIG. 1 ). ) 280 , a display (eg, display 160 in FIG. 1 ) 220 , a communication module (eg, communication module 190 in FIG. 1 ) 290 , and/or a camera (eg, display 160 in FIG. 1 ). It may include camera modules 180 and 270 .
  • the components included in FIG. 2 are for some of the components included in the electronic device 200 , and the electronic device 200 may include various other components as illustrated in FIG. 1 .
  • the memory 280 may be the memory 130 described with reference to FIG. 1 .
  • the memory 280 temporarily or non-temporarily stores at least one of content received from the outside and/or another memory of the electronic device 200 and/or content stored in an external memory physically connected to the electronic device 200 .
  • the content may include at least one of image information, audio information, and text.
  • the display 220 may be the display module 160 described with reference to FIG. 1 .
  • the processor 250 may be connected to the display 220 to process information so that various information may be visually displayed through the display 220 .
  • the communication module 290 may be the communication module 190 described with reference to FIG. 1 .
  • the communication module 290 may receive and/or transmit various information by communicating with an external electronic device through a network (eg, the first network 198 and/or the second network 199 of FIG. 1 ).
  • the processor 250 may be connected to the communication module 290 to process various information received by the communication module 290 from an external electronic device.
  • the processor 250 may control the communication module 290 to transmit various information to an external electronic device.
  • the camera 270 may photograph the environment around the user and/or the electronic device 200 .
  • the processor 250 may be connected to the camera 270 to process various image information captured by the camera 270 .
  • FIG. 3 is a flowchart illustrating a method in which a processor controls an electronic device to provide feedback of a user action with respect to an object action in content according to certain embodiments disclosed in this document.
  • the processor may analyze an image included in the content to generate posture information of the object included in the image, in operation 1100 .
  • the content may include various images (eg, exercise images for home training) acquired from an external media source.
  • the content may include at least one of image information, audio information, and text.
  • the processor 250 may distinguish a background region in the content and an object performing an operation such as a trainer expressed in the video.
  • the posture information of the object may mean relative position information of each part of the body of the object performing an operation.
  • the processor 250 inputs an image frame constituting an image included in the content to the learned artificial intelligence model, obtains a feature value of the input image frame, and selects an object based on the acquired feature value. It is possible to classify and create posture information of an object.
  • the processor 250 may analyze an image included in the content to generate motion information (eg, division of motion, name of motion) of an object included in the image.
  • the processor 250 may generate the section information by dividing the motion section of the content based on the motion information of the object. For example, the processor 250 may classify a section in which the object performs a first operation as a first section and a section in which the object performs a second operation as a second section.
  • the processor 250 may generate information on the start position, end position, and length of each section in the content as section information of each section.
  • the processor 250 may determine the motion name based on motion information of the object.
  • the processor 250 may match a general action name (eg, jumping lunge, wide skirt, buffet test, crunch, dance) of the first action.
  • the processor 250 obtains a feature value of the input image frame by inputting an image frame constituting an image included in the content to the learned artificial intelligence model, and based on the acquired feature value, the object Operation information can be created.
  • the processor 250 may acquire an image including a user through a camera.
  • the camera from which the processor 250 acquires an image including the user may include a camera (eg, the camera 270 of FIG. 2 ) included in the electronic device 200 .
  • the camera from which the processor 250 acquires an image including the user may include a camera (eg, a webcam, a camcorder, a wireless camera) provided in an external electronic device, and may include a camera provided in the external electronic device.
  • the camera may be connected to the electronic device 200 by wire and/or wirelessly.
  • the processor 250 may control the camera to operate in a shooting mode while content is output, and the processor 250 may acquire an image including a user captured by the camera.
  • the processor 250 may analyze an image including the user to generate the user's posture information.
  • the processor 250 may distinguish the background area from the user in the image captured by the camera.
  • the user's posture information may mean relative position information of each part of the user's body in the image.
  • the processor 250 inputs an image frame constituting an image captured by the camera to the learned artificial intelligence model to obtain a feature value of the input image frame, and based on the acquired feature value, the user's Posture information can be created.
  • the processor 250 is configured to provide the user's biometric information (eg, heart rate and/or calories) received by the communication module 290 from an external device (eg, the second external device 400 of FIG. 4 ). ) and/or motion information (eg, movement).
  • biometric information eg, heart rate and/or calories
  • the communication module 290 receives the user's biometric information (eg, heart rate and/or calories) from an external device (eg, the second external device 400 of FIG. 4 ).
  • motion information eg, movement
  • the processor 250 compares the posture information of the object with the posture information of the user in operation 1400, and feedback information to be provided to the user based on the comparison result (eg, “corrected” of the trainer) posture information) can be created.
  • the processor 250 may determine a similarity between the posture information of the object and the user's posture information based on the feedback information, and divide the user's posture into at least two regions based on the similarity. For example, the processor 250 divides the user's body into a plurality of regions based on the degree of similarity, and divides each region into a matching region (eg, a region having a degree of similarity equal to or greater than a first value), and a similar region (eg, having a similarity level). , a region less than the first value and greater than or equal to the second value) and/or a dissimilarity region (eg, a region in which the similarity is less than the second value).
  • a matching region eg, a region having a degree of similarity equal to or greater than a first value
  • a similar region eg, having a similarity level
  • the processor 250 may output the feedback information in a visualized form.
  • the processor 250 may implement the feedback information as a visualized guide figure. For example, create a node corresponding to a part of the user's body (eg, joints such as wrist, elbow, head, pelvis, and popliteal), and add a line connecting the nodes to create an abstract shape of the body; An abstract humanoid visualization can be used to output the user's posture.
  • the color of the line connecting the nodes may be set to be different (eg, a first color line for a matching area, a second color line for a similar area, and a third color line for a dissimilar area).
  • the processor 250 may implement the feedback information in the form of audio. For example, in response to the dissimilar region, the processor 250 may implement a sentence guiding the posture in the form of audio in order to increase the similarity between the posture information of the user and the posture information of the object.
  • the processor 250 may select an external electronic device to output feedback information in operation 1500 .
  • a plurality of external electronic devices may be able to communicate.
  • the processor 250 may output feedback information based on at least one of a property of the feedback information, a pre-stored function of the external electronic device, the number of current users, and a pre-stored relationship between the user and the external electronic device.
  • An external electronic device may be determined.
  • the processor 250 may determine to output the feedback information to an external electronic device equipped with a sound output function in response to implementing the feedback information in an audio format. According to an embodiment, the processor 250 may determine to output the feedback information to an external electronic device including a display in response to implementing the feedback information in a visualization form.
  • the processor 250 outputs the first feedback information corresponding to the first user to the external electronic device of the first user in response to the generation of the plurality of pieces of feedback information for the plurality of users, and the second It may be determined to output the second feedback information corresponding to the second user to the user's external electronic device.
  • the processor 250 may determine an external electronic device to output motion information of an object in the content and/or biometric information and/or motion information of a user. According to an embodiment, the processor 250 displays the object on an external electronic device including a display in response to visually implementing (eg, text, figure) the motion information of the object and/or the user's biometric information and/or motion information. It may be determined to output the motion information of the user and/or the user's biometric information and/or motion information.
  • the processor 250 may determine to output the posture information of the object to an external electronic device equipped with a sound output function in response to realizing the posture information of the object in an audio format.
  • the processor 250 may transmit feedback information to an external electronic device determined for output in operation 1600 .
  • the processor 250 is a communication module (eg, the communication module 290 of FIG. 2) to the external electronic device to the network (eg, the first network 198 and / or the second network ( 199)) to control the transmission of feedback information.
  • the network eg, the first network 198 and / or the second network ( 199)
  • FIG. 4 is a diagram illustrating an electronic device and an external electronic device related to the electronic device according to specific embodiments described in this document.
  • the electronic device 200 may be connected to at least one of the first external electronic device 300 , the second external electronic device 400 , and the third external electronic device 500 .
  • the electronic device 200 includes the first external electronic device 300 , the second external electronic device 400 , and the third external electronic device through a network (eg, the first network 198 of FIG. 1 ).
  • a communication module eg, the communication module 290 of FIG. 2
  • the first external electronic device 300 , the second external electronic device 400 , and the third external electronic device 500 may be interconnected through a network.
  • the electronic device 200 may receive various information from the first external electronic device 300 , the second external electronic device 400 , and/or the third external electronic device 500 .
  • the electronic device 200 collects the user's biometric information (eg, heart rate and/or calories) and/or motion information (eg, movement) of the user from the second external device 400 . Biometric information and/or motion information may be received.
  • the first external electronic device 300 may be an electronic device including a display (eg, a TV, a monitor, a projector).
  • the first external electronic device 300 may include a sound output module (eg, a speaker).
  • the first external electronic device 300 may display various pieces of information received from the electronic device 200 on a display or output it to a sound output module.
  • the first external electronic device 300 receives a content screen (eg, the content screen 610 of FIG. 5A ) and/or a user screen (eg, the user screen of FIG. 5C ) received from the electronic device 200 . 620) may be displayed on the display.
  • the second external electronic device 300 may output the posture information and/or feedback information of the object received from the electronic device 200 to the speaker.
  • the second external electronic device 400 is an electronic device (eg, a function of measuring user's biometric information (eg, heart rate and/or calories) and/or motion information (eg, movement)) : a wearable device and/or a smart watch).
  • the second external electronic device 400 may transmit the measured user's biometric information and/or motion information to the electronic device 200 .
  • the second external electronic device 400 may include a display.
  • the second external electronic device 200 may display the measured user's biometric information and/or motion information on the display.
  • the second external electronic device 400 may display various information received from the electronic device 200 on the display.
  • the second external electronic device 400 may display motion information (eg, motion section, motion name) of the object received from the electronic device 200 on the display.
  • the third external electronic device 500 may include a sound output module (eg, a hearable device, a speaker, and/or an earphone). According to specific embodiments, the third external electronic device 500 may output various information received from the electronic device 200 in the form of audio. According to an embodiment, the third external electronic device 500 may output the posture information and/or feedback information of the object received from the electronic device 200 in the form of audio.
  • a sound output module eg, a hearable device, a speaker, and/or an earphone.
  • the third external electronic device 500 may output various information received from the electronic device 200 in the form of audio.
  • the third external electronic device 500 may output the posture information and/or feedback information of the object received from the electronic device 200 in the form of audio.
  • the processor of the electronic device 200 transmits various information related to an object operation in the content and/or a user's operation to the electronic device 200 and the first external device.
  • the electronic device 300 , the second external electronic device 400 , and/or the third external electronic device 500 may control output.
  • the processor 250 may determine an electronic device to output information based on an attribute of the information to be transmitted and/or a function of the electronic device.
  • Table 1 is a table illustrating functions of an electronic device that can be performed by a first external electronic device, an electronic device, a second external electronic device, and a third external electronic device, according to an embodiment.
  • the processor 250 includes The control may be performed to display a content screen (eg, the content screen 610 of FIG. 5A ) on the first external electronic device 300 and/or the electronic device 200 .
  • the processor 250 may It is possible to control to display a user screen (eg, the user screen 620 of FIG. 5C ) on the first external electronic device 300 and/or the electronic device 200 .
  • the processor 250 obtains an image including the user captured by the camera 270 provided in the electronic device 200 and/or the camera provided in the external electronic device to display the user screen 620 . configurable.
  • the processor 250 provides posture information and/or feedback information of an object in the content to any one of the first external electronic device 300 , the electronic device 200 , and the third external electronic device 500 . It can be controlled to output in audio format. According to an embodiment, in response to two or more devices being connected to the electronic device 200 , the processor 250 determines which one of the information It can be controlled to output one to any one of the above devices. For example, the processor 250 outputs the posture information of the object from any one of the first external electronic device 300 and/or the electronic device 200 and outputs the feedback information to the third electronic device 500 . can be controlled
  • the processor 250 converts an operation being output in content from any one of the electronic device 200 , the second external electronic device 400 , and the third external electronic device 500 to another operation in the content. It is possible to receive a user's motion change input to make it happen.
  • an input is received from all connected electronic devices and/or an input is received only from a preset electronic device among the connected electronic devices. can do.
  • the processor 250 may generate the user's posture information using an image including the user.
  • the processor 250 may analyze the user's posture included in the image acquired through the camera, and generate user's posture information based on the analyzed posture.
  • the processor 250 performs the user's biometric information (eg, heart rate and/or calories) information and/or operation information (eg, the number of operations and/or operation time) through the second external electronic device 400 . ) can be controlled to obtain the user's biometric information (eg, heart rate and/or calories) information and/or operation information (eg, the number of operations and/or operation time) through the second external electronic device 400 . ) can be controlled to obtain biometric information (eg, heart rate and/or calories) information and/or operation information (eg, the number of operations and/or operation time) through the second external electronic device 400 . ) can be controlled to obtain
  • the processor 250 determines that at least one of the first external electronic device 300 , the electronic device 200 , and the second external electronic device 400 determines the user's biometric information and/or operation At least one of the first external electronic device 300 , the electronic device 200 , and the second external electronic device 400 may be controlled to display information.
  • the processor 250 displays the user's biometric information and/or motion information on the first external electronic device 300 and/or the electronic device 200 in the form of including the user's biometric information and/or motion information on the user screen 620 . to control the first external electronic device 300 and/or the electronic device 200 and/or the second external electronic device to display the 400) can be controlled.
  • the processor 250 transmits various information related to the operation of the object in the content and/or the operation of the user to the electronic device 200,
  • the first external electronic device 300 , the second external electronic device 400 , and the third external electronic device 500 may control to generate, obtain, and/or output.
  • the type of electronic device may be classified according to whether a display is included, a size of the display, whether a camera is included, whether a sound output module is included, whether a biometric sensor is included, whether a motion detection sensor is included, and/or an input module is included.
  • the processor 250 may control the device including the display to display the content screen, the user screen, the user's biometric information, and/or motion information on the device including the display.
  • the processor 250 displays a content screen and/or a user screen on a device including a display having a size larger than or equal to a specified size, and displays a display size larger than a specified size to display the user's biometric information and/or motion information on the user screen.
  • Controlling a device including a display smaller than a specified size to display the user's biometric information and/or motion information in the form of text and/or icons on the device including a display smaller than a specified size can do.
  • the processor 250 may configure a user screen by obtaining an image including a user from a device including a camera.
  • the processor 250 may control the device including the sound output module to output the posture information and/or feedback information of the object in the form of audio to the device including the sound output module.
  • the processor 250 controls the device including the biosensor and/or the motion sensor to obtain the user's biometric information and/or motion information from the device including the biometric sensor and/or the motion sensor. can do.
  • the processor 250 may control a device including various types of input modules to obtain a user's motion change input from the devices including various types of input modules.
  • the first external electronic device 300 may include a display having a predetermined size or larger, a sound output module, and/or a camera.
  • the electronic device 200 may include a display having a predetermined size or larger, a sound output module, an input module, and/or a camera.
  • the second external electronic device 400 may include a display smaller than a predetermined size, a biometric sensor, a motion detection sensor, and/or an input module.
  • the third external electronic device 500 may include a sound output module and/or an input module.
  • the processor 250 in response to a plurality of devices capable of performing the same function among electronic devices available to the user, performs the function in all of the devices, and/or only in some devices.
  • a plurality of devices may be controlled to perform a function. For example, when there are a plurality of devices including displays, the processor 250 displays the user's biometric information and/or motion information on all displays, or the user's biometric information on devices including some displays.
  • a device including the plurality of displays may be controlled to display and display motion information on a device including a partial display or display the user's biometric information and/or motion information on a device including a partial display.
  • the processor 250 may display a content screen and/or a user screen on all devices including displays of a size greater than or equal to a specified size, or display some display sizes greater than or equal to a specified size.
  • a device including a plurality of displays of a predetermined size or larger may be controlled to display a content screen on an electronic device including
  • the processor 250 when there are a plurality of devices including the sound output module, the processor 250 outputs the posture information and/or feedback information of the object in the form of audio to the device including all the sound output modules, or some sound
  • the device including the plurality of sound output modules may be controlled to output the posture information of the object to the device including the output module and output feedback information to the device including some sound output modules.
  • the processor 250 may output the posture information and/or feedback information of the object in the form of audio to the device including the sound output module based on the execution time of the operation. For example, in response to the operation being performed during the daytime, the processor 250 includes a sound output module to output posture information and/or feedback information of an object in an audio form from a device in which the sound output module is in the form of a speaker. devices can be controlled. For another example, in response to the operation being performed at night time, the processor 250 may output the posture information and/or feedback information of the object in the form of audio from the device in which the sound output module is in the form of an earphone.
  • the processor 250 includes the electronic device 200, the first external electronic device 300, and the second external electronic device ( 400), the electronic device 200 displays the user screen 620, generates the user's posture information, controls to display the user's biometric information and/or motion information, and the first external electronic device Controls the 300 to display the content screen 610, output the posture information and/or feedback information of the object in an audio form, and obtain a user's motion change input through the second external electronic device 400, It is possible to control to obtain the user's biometric information and/or motion information.
  • the processor 250 displays the content screen 610 and The user screen 620 is displayed, the user's posture information is generated, and the object's posture information and/or feedback information is controlled to be output in an audio form, and the user's motion change is input through the second external electronic device 400 . , and control to obtain biometric information and/or motion information of the user.
  • the processor 250 may include various electronic devices connected to the electronic device 200 (eg, the first external electronic device 300 , the second external electronic device 400 , and/or the second external electronic device 400 ).
  • An electronic device to output feedback information may be selected from among the external electronic devices 500, and the feedback information may be transmitted to the selected electronic device
  • the processor 250 may output the feedback information according to a time to output the feedback information.
  • the electronic device may be selected differently.
  • the devices available to the user are the electronic device 200 , the first external electronic device 300 , the second external electronic device 400 , and the third external electronic device 500 .
  • the electronic device 200 displays the user screen 620 and displays the user's posture information in response to a specific time (eg, night time) of the operation for feeding back the user's motion with respect to the motion of the object in the content.
  • controls to display the user's biometric information and/or motion information controls the first external electronic device 300 to display the content screen 610 , and controls the user through the second external electronic device 400 .
  • the devices available to the user are the electronic device 200 , the first external electronic device 300 , the second external electronic device 400 , and the third external electronic device 500 .
  • the electronic device 200 displays the user screen 620 and displays the user's posture information in response to a specific time (eg, daytime) of an operation for feeding back a user's motion with respect to an object motion in the content.
  • a specific time eg, daytime
  • the first external electronic device 300 displays the content screen 610, and displays the posture information and/or feedback information of the object in an audio form.
  • control to output, control to acquire the user's biometric information and/or motion information through the second external electronic device 400, and control to acquire the user's motion change input through the third external electronic device 500 can
  • the processor 250 is configured to display the contents of the first external electronic device 300 in response to the devices available to the user being the first external electronic device 300 and the second external electronic device 400 .
  • the screen 610 is displayed, the posture information and/or feedback information of the object are output in the form of audio, the user's biometric information and/or motion information are controlled to be displayed, and the user through the second external electronic device 400 It is possible to obtain a motion change input of , and control to obtain the user's biometric information and/or motion information.
  • the processor 250 displays the content screen 610 and the user The screen 620 is displayed, the user's posture information is generated, the user's biometric information and/or motion information are controlled to be displayed, and the user's motion switching input is obtained through the second external electronic device 400, It is possible to control to output the posture information and/or feedback information of the object in the form of audio.
  • the processor 250 may be configured to, in response to a plurality of electronic devices and/or a plurality of external electronic devices belonging to a plurality of users, a property of information to be output, a function of the electronic device, a user's An electronic device to output information may be determined based on any one of the number and the relationship between the user and the external electronic device. For example, in response to the presence of a plurality of users, the processor 250 generates posture information and/or feedback information of each user, and obtains biometric information and/or motion information of each user to obtain a device associated with each user. You can control the device associated with each user to output from .
  • Table 2 shows the first external electronic device, the first user's electronic device, the first user's second external electronic device, the first user's third external electronic device, the second user's electronic device, and the second external electronic device, according to an embodiment.
  • a table showing functions of the electronic device that can be performed by the second user's second external electronic device and the second user's third external electronic device.
  • the processor 250 includes It is possible to control to display the content screen 610 on any one of the first external electronic device 300 , the first user's electronic device, and the second user's electronic device.
  • the processor 250 may control to display the user screen 620 on any one of the first external electronic device 300 , the first user's electronic device, and the second user's electronic device.
  • the processor 250 includes a first user and/or a first user acquired from a camera provided in the first user's electronic device and/or a camera provided in the second user's electronic device to the first external electronic device 300 .
  • the processor 250 may display a first user screen on the first external electronic device 300 including an image of the first user acquired from the electronic device of the first user (eg, the first user screen of FIG. 5F ). At least one of the user screen 620) and the second user screen (eg, the second user screen 630 of FIG. 5F ) including the second user's image acquired from the second user's electronic device are displayed, or all You can control it not to display.
  • the processor 250 includes the first external electronic device 300 , the first user's electronic device, the second user's electronic device, the first user's third electronic device, and the second user's third electronic device. It is possible to control one of the devices to output the posture information of the object in the content and/or the feedback information according to the comparison of the posture information of the object in the content with the user posture information in the form of audio. According to an embodiment, the processor 250 may control the first external electronic device 300, the first user's electronic device, and the second user's electronic device to output the posture information of the object in the form of audio. have.
  • the processor 250 transmits the first feedback information about the first user to the third electronic device of the first user and the second feedback information about the second user to the third electronic device of the second user. It can be controlled to output in audio format.
  • the processor 250 classifies a device (eg, the first external electronic device 300 and/or the electronic device 200 ) that the first user and the second user are using at the same time as a common device, and Posture information is output in the form of audio, and devices used by the first user and the second user respectively (eg, the first user's electronic device, the third external electronic device, and/or the second user's electronic device, the third The external electronic device) classifies the first feedback information as a personal device and receives the second feedback information from the first user's personal electronic device (eg, the first user's electronic device and/or the first user's third external electronic device).
  • a device eg, the first external electronic device 300 and/or the electronic device 200
  • Posture information is output in the form of audio
  • the second user's personal electronic device may control each device to output the audio in the form of audio.
  • a case in which the electronic device 200 is classified as a public device may include a case in which the electronic device 200 displays a content screen
  • a case in which the electronic device 200 is classified as a personal device is a first It may include a case where the external electronic device 300 displays a content screen.
  • the processor 250 is a first user's electronic device, a second user's electronic device, a first user's second external electronic device, a second user's second external electronic device, and a first user's second electronic device.
  • a user's motion change input for switching an operation being output in the content to another operation in the content may be received from any one of the 3 external electronic device and the third external electronic device of the second user.
  • an input may be received from all the devices and/or an input may be received only from a preset device among the devices.
  • a preset device capable of receiving the input may be set by the user.
  • the processor 250 may control the electronic device of the first user and/or the electronic device of the second user to generate the posture information of the first user and/or the second user.
  • the processor 250 captures the first user's electronic device with a camera provided in the first user's electronic device. First to generate the posture information of the first user included in one screen, and the electronic device of the second user to generate the posture information of the second user included in the screen captured by the camera provided in the electronic device of the second user The user's electronic device and/or the second user's electronic device may be controlled.
  • the processor 250 in response to using only the first user's electronic device, includes the first user's electronic device in a screen captured by the camera 270 provided in the first user's electronic device.
  • the electronic device of the first user may be controlled to respectively generate posture information of the first user and/or the second user.
  • the processor 250 may be configured to configure the first user's biometric information and/or motion information measured by the first user's second external electronic device and/or the second user's second external electronic device measured by the second external electronic device. 2 It is possible to receive the user's biometric information and/or motion information.
  • the processor 250 may provide biometric information of the first user and/or the second user in at least one of the first external electronic device 300 , the electronic device of the first user, and the electronic device of the second user. It can be controlled to display (eg heart rate and/or calories) and/or motion information (eg number of motions and/or duration of motion). In addition, the processor 250 displays the biometric information and/or motion information of the first user on the second external electronic device of the first user, and the biometric information and/or the biometric information of the second user on the second external electronic device of the second user. Alternatively, operation information may be controlled to be displayed.
  • the processor 250 may be configured to include biometric information and/or motion information of the first user and/or the second user in the first user screen 620 and/or the second user screen 630 . 1 can control any one of the external electronic device 300, the first user's electronic device, and the second user's electronic device to display on any one and/or the first user's second external electronic device and /or the second external electronic device of the first user and/or the second external electronic device of the second user may be controlled to display the text and icons on the second external electronic device of the second user.
  • the processor 250 displays a content screen (eg, the content screen 610 of FIG. 5A ) and/or a user screen (eg, the user screen 620 of FIG. 5C ) to the electronic device (eg, FIG. 5C ). 2 ) to be controlled to be displayed on a display (eg, the display 220 of FIG. 2 ), or to an external electronic device including a display (eg, the second external device 300 of FIG. 4 ). You can control the display.
  • a content screen eg, the content screen 610 of FIG. 5A
  • a user screen eg, the user screen 620 of FIG. 5C
  • 5A is a diagram illustrating an example of a content screen 610, according to certain embodiments described in this document.
  • the processor 250 may display the content screen 610 including image information of content stored in a memory (eg, the memory 280 of FIG. 2 ).
  • the content may include various images (eg, exercise images for home training) acquired from an external media source.
  • the content screen 610 may include an object 611 performing an action within the content (eg, a trainer in a shared online video performing an exercise).
  • the processor 250 may distinguish the background area and the object 611 in the content.
  • the processor 250 analyzes the image information of the object 611 to classify a section of an operation performed by the object, operation information of the object including the name of the operation, and/or the relative of each part of the body of the object performing the operation. Posture information of an object including location information may be generated.
  • the processor 250 may generate feedback information by comparing the posture information of the object with the posture information of the user.
  • the processor 250 may process the motion information of the object in various forms and display it on the content screen 610 .
  • the processor 250 may display the motion information of the object in the form of text 616 and/or block bar 615 on the content screen 610 .
  • the processor 250 may generate section information by dividing the motion section of the content based on the motion information of the object. For example, the processor 250 divides a section in which the object 611 performs a first operation (eg, a lunge operation) into a first interval, and the object 611 performs a second operation (eg, a squat operation). The performed section may be divided into a second section.
  • a first operation eg, a lunge operation
  • a second operation eg, a squat operation
  • the processor 250 may generate information on the start position, end position, and length of each section in the content as section information of each section.
  • the processor 250 may display section information in the form of a block bar 615 on the content screen 610 .
  • the processor 250 may differently display section information of the first section (eg, a section in which a lunge operation is performed) and section information of a second section (eg, a section in which a squat operation is performed).
  • the processor 250 may display the block bar 615 by classifying colors for each section constituting the content.
  • the processor 250 may display the currently ongoing first operation section in the form of a thicker block bar (eg, the fourth block from the left among the block bars 615 of FIG. 5A ) compared to other block bars.
  • the processor 250 may display information indicating the progress of the operation on the content screen 610 based on the operation information of the object. For example, the processor 250 may display the progress position of the current operation on the block bar 615 in the first operation section currently in progress. As another example, in the first operation section, the processor 250 may display the remaining operation time as text 616 on the content screen 610 .
  • the processor 250 displays the content by variously utilizing section information according to the type of content (eg, difficulty, type of exercise within the content) and type of operation (eg, difficulty and type of movement). can do.
  • the processor 250 displays a first motion (eg, Jumping Jack) in the first section for 30 seconds, and in the second section 2 motion (eg, Walk Down to Plank) is displayed for 30 seconds, then the first motion and the second motion are displayed again, and then the display of the content is stopped so that the user can take a break for 30 seconds.
  • Contents can be displayed by using section information of
  • the processor 250 displays the first operation (eg, Steam Engines) for 60 seconds in the first period, and the second operation in the second period. 2 Displaying the motion (eg Squats) for 60 seconds, displaying the 3rd exercise (eg Burpees) for 60 seconds in the 3rd leg, and then stopping the display of the content so that you can rest for 20 seconds. Content can be displayed using section information.
  • the processor 250 may display the content as a detailed division operation of an operation consisting of a continuous operation of several steps within one section according to the type of operation.
  • a third content type eg, yoga
  • the processor 250 performs a first operation (eg, Side Rotation) for 60 seconds in the first section, a first detailed operation (eg, To_Left) and The second detailed operation (To_Right) is divided and displayed, the second movement (eg, cat cow) is displayed for 60 seconds in the second section, and the third movement (eg, balancing table) is displayed in the third section for 90 seconds.
  • the content may be displayed by using the section information of the motion, such as displaying the third subdivided operation (eg, To_Left) and the fourth subdivided operation (eg, To_Right).
  • the processor 250 may display the content screen 610 according to the type of operation (eg, a sitting operation). For example, in an operation of performing the upper body, content may be displayed for the upper body region of the object, and posture information of the object may be provided with respect to the upper body operation of the object.
  • the type of operation eg, a sitting operation
  • the processor 250 may generate the number of repetitions of an operation as section information according to the type of content and/or the type of operation. For example, in the case of the fourth content (eg, dance), the first motion (eg, step) is repeated twice in the first section, and the second motion (eg, elbow rhythm) is repeated 3 times in the second section and repeating the third operation (eg, backstep) twice in the third section may be generated as section information, and the fourth content may be displayed according to the section information.
  • the fourth content eg, dance
  • the first motion eg, step
  • the second motion eg, elbow rhythm
  • the third operation eg, backstep
  • the processor 250 may determine the action name based on the action information of the object. According to an embodiment, in response to the object 611 performing the first action, the processor 250 generates a general action name (eg, jumping, lunge, wide skirt, buffet test, crunch, dance) of the first action. can match. The processor 250 may display the operation name as text 616 on the content screen 610 .
  • a general action name eg, jumping, lunge, wide skirt, buffet test, crunch, dance
  • FIG. 5B is a diagram illustrating an example of a content screen, according to certain embodiments described in this document.
  • the example of FIG. 5B is a diagram illustrating an example of the content screen 610 for content that includes an exercise-related motion only in a partial section.
  • the processor 250 may display the content screen 610 including image information of the content stored in the memory 280 .
  • the content may include various images (eg, a movie including an exercise section, a drama) obtained from an external media source.
  • the content screen 610 may include a first object 611 and/or a second object 612 performing an operation (eg, a jazz dance operation) within the content.
  • the processor 250 may distinguish the background area from the first object 611 and/or the second object 612 in the content.
  • the processor 250 analyzes the image information of the first object 611 and/or the second object 612, and the motion information of each of the first object 611 and/or the second object 612 and/or the second object 612 Posture information of each of the first object 611 and/or the second object 612 may be generated.
  • the processor 250 may process the motion information of the object in various forms and display it on the content screen 610 .
  • the processor 250 may display the motion information in the form of text 616 and/or block bar 615 on the content screen 610 .
  • the processor 250 may generate the section information by dividing the motion section of the content based on the motion information of the object.
  • the processor 250 may classify a section in which an action (eg, exercise, dancing, cooking) related to a field in which content is specified is performed based on the motion information of the object. For example, the processor 250 divides a section in which the first object 611 and/or the second object 612 performs a first operation into a first section, and the first object 611 and/or the second object 612 A section in which the second object 612 performs the second operation may be divided into a second section.
  • the processor 250 may generate information on the start position, end position, and length of each section in the content as section information of each section.
  • the processor 250 may display section information in the form of a block bar 615 on the content screen 610 .
  • the processor 250 may differently display section information of the first section, section information of the second section, and section information of a section that does not include an operation.
  • the processor 250 may be configured to perform a first section and/or a second section for performing an action in the designated field in response to content including only a partial section of the motion (eg, exercise, dancing, cooking) of the specified field.
  • the block bar 615 may be displayed by classifying colors for each section, and the block bar 615 may not be displayed for a section that does not include an operation in a designated field.
  • the processor 250 may display the currently ongoing first operation section in the form of a block bar thicker than other block bars.
  • 5C is a diagram illustrating an example of a user screen 620 including a user, according to certain embodiments described in this document.
  • the processor 250 may acquire an image including the user 621 through a camera.
  • the camera from which the processor 250 acquires an image including the user may include a camera (eg, the camera 270 of FIG. 2 ) included in the electronic device 200 .
  • the camera from which the processor 250 acquires an image including the user may include a camera (eg, a webcam, a camcorder, a wireless camera) provided in an external electronic device, and may include a camera provided in the external electronic device.
  • the camera may be connected to the electronic device 200 by wire and/or wirelessly.
  • the processor 250 may distinguish the user 621 from the background area in the user screen 620 .
  • the processor 250 may analyze the image information of the user 621 to generate the user's posture information.
  • the processor 250 may compare the posture information of the object in the content and the posture information of the user, and generate feedback information based on the comparison result. According to an embodiment, the processor 250 may check the similarity between the posture information of the object and the posture information of the user based on the feedback information, and divide the posture of the user 621 into at least two or more regions based on the similarity. have.
  • the processor 250 may set the posture of the user 621 based on the similarity to a matching region (eg, a region in which the similarity is greater than or equal to a first value), a similar region (eg, a similarity is less than the first value), The region may be divided into a region greater than or equal to the second value) and/or a dissimilar region (eg, a region in which the similarity is less than the second value).
  • the processor 250 may visualize the divided area and display the visualized area on the display.
  • the processor 250 may display the visualized area by overlaying it on the user screen 620 .
  • the processor 250 may display the feedback information on the user screen 620 in various visualized forms. According to an embodiment, the processor 250 may display the feedback information as a guide figure 622 visualized in the form of an abstract figure using nodes and lines. For example, the processor 250 may display the guide figure 622 by dividing it into nodes and/or lines.
  • a node may represent at least a rotating part of the body (eg, a joint) and/or a distal region of the body (eg, the head). Lines may represent at least generally inflexible parts connecting nodes, such as limbs.
  • the processor 250 may display a node to correspond to a part of the user 621's body (eg, a joint such as wrist, elbow, head, pelvis, and popliteal muscle), and may display a line connecting the nodes. .
  • the processor 250 may display different colors of lines connecting between nodes in response to information that divides the posture of the user 621 into a matching region, a similar region, and a dissimilar region based on the degree of similarity. (e.g., a matching area is a first color line, a similar area is a second color line, a dissimilar area is a third color line). Accordingly, the user can intuitively grasp the body part different from the posture of the object in the content.
  • the processor 250 receives the user's biometric information (eg, heart rate and/or calories) and motion information that the communication module 290 receives from an external device (eg, the second external device 400). (eg movement) can be obtained.
  • the processor 250 may display the user's biometric information 623 and/or motion information 624 on the user screen 620 .
  • the processor 250 may display biometric information 623 including the user's heart rate and/or calories on the user screen 620, and the user's motion information (eg, the number of motions) 624 . can be displayed on the user screen.
  • 5D is a diagram illustrating an example of a user screen 620 including a plurality of users, according to certain embodiments described in this document.
  • the processor 250 may acquire an image including the first user 621 and/or the second user 631 through the camera.
  • the camera from which the processor 250 acquires an image including the user may include a camera (eg, the camera 270 of FIG. 2 ) included in the electronic device 200 .
  • the camera from which the processor 250 acquires an image including the user may include a camera (eg, a webcam, a camcorder, a wireless camera) provided in an external electronic device, and may include a camera provided in the external electronic device.
  • the camera may be connected to the electronic device 200 by wire and/or wirelessly.
  • the processor 250 may distinguish the background area from the first user 621 and/or the second user 631 in the user screen 620 .
  • the processor 250 may analyze image information of the first user 621 and/or the second user 631 to generate posture information of the first user and/or the second user, respectively.
  • the processor 250 compares the posture information of each of the first user 621 and/or the second user 631 with the posture information of the object in the content, and based on the comparison result, the first user
  • the first feedback information of 621 and/or the second feedback information of the second user 631 may be generated, respectively.
  • the processor 250 is configured to generate the posture information of the object and the posture information of each of the first user 621 and/or the second user 631 based on the first feedback information and/or the second feedback information.
  • the similarity may be checked, and the postures of the first user 621 and/or the second user 631 may be divided into at least two regions based on each similarity.
  • the processor 250 may match the postures of the first user 621 and/or the second user 631 based on the degree of similarity to a matching area (eg, an area in which the degree of similarity is equal to or greater than a first value), a similar area ( Example: The similarity may be divided into a region less than the first value and greater than or equal to the second value) and/or a dissimilarity region (eg, a region in which the similarity is less than the second value).
  • the processor 250 may visualize the divided area and display the visualized area on the display.
  • the processor 250 may display the visualized area on the user screen 620 in such a way that the image of the first user 621 and/or the image of the second user 631 are respectively overlaid. .
  • the processor 250 may display the first feedback information and/or the second feedback information on the user screen 620 through various visualized forms. According to an embodiment, the processor 250 may display the first feedback information and/or the second feedback information as a first guide figure 622 and/or a second guide figure 632 visualized in a figure form, respectively. have.
  • the processor 250 is configured to allow the communication module 290 to be configured with a first external device (eg, the second external device 400) and/or a second external device (eg, the second external device 400). ) and/or biometric information (heart rate and/or calories) and/or motion information of the first user 621 and/or the second user 631 may be obtained.
  • the processor 250 displays the biometric information 623 and/or the motion information 624 of the first user and/or the biometric information 633 and/or the motion information 634 of the second user on the user screen 620 . can do.
  • the processor 250 may include the first user's biometric information 623 including the heart rate and/or calories of the first user and/or the second user's biometric information including the second user's heart rate and/or calories Information 633 may be displayed on the user screen 620 , and operation information (eg, number of operations) 624 of the first user and/or operation information (eg, number of operations) of the second user 634 ) can be displayed on the user screen.
  • 5E and 5F are diagrams illustrating examples of displaying a content screen and a user screen according to certain embodiments.
  • the processor 250 controls the content screen 610 and/or the user screen 620 to be displayed on the display 220 of the electronic device 200, or an external electronic device ( Example: It is possible to control the display to be displayed on the second external device 300 of FIG. 4 .
  • the processor 250 displays the content screen 610 and the user screen 620 in the electronic device 200 in response to one user screen 620 (eg, when there is one camera for capturing a user). It is a diagram showing an example of displaying on the display 220 of the and/or the display of the external electronic device 300 .
  • the processor 250 may control the content screen 610 and the user screen 620 to be displayed on one display.
  • the properties (eg, size, ratio, location) of the content screen 610 and/or the user screen 620 may be set by various methods.
  • the processor 250 is configured to display the content screen 610 and/or the content screen based on the properties of the display 220 (eg, the resolution of the display 220 and the aspect ratio of the display 220 ).
  • the attribute of the user screen 620 may be determined.
  • the processor 250 based on a user input for setting the properties of the content screen 610 and/or the user screen 620 , the properties of the content screen 610 and/or the user screen 620 . can also be set.
  • 5F shows that there is a first user screen 620 including a first user and/or a second user screen 630 including a second user, respectively (eg, there are a plurality of electronic devices including a camera for photographing a user). ), the processor 250 transmits the content screen 610 , the first user screen 620 , and/or the second user screen 630 to the display 220 of the electronic device 200 and/or external It is a diagram illustrating an example of a screen configuration displayed on the display of the electronic device 300 .
  • the processor 250 may control the content screen 610 , the first user screen 620 , and/or the second user screen 630 to be displayed on one display.
  • properties eg, size, ratio, location
  • properties of the content screen 610 , the first user screen 620 , and/or the second user screen 630 may be set by various methods.
  • the processor 250, the content screen 610 based on the properties of the display 220 eg, the resolution of the display 220, the aspect ratio of the display 220 (aspect ratio)
  • the properties of the first user screen 620 and/or the second user screen 630 may be determined.
  • the processor 250, the content screen 610, the content screen 610 based on a user input for setting the properties of the first user screen 620, and/or the second user screen 630, , properties of the first user screen 620 and/or the second user screen 630 may be set.
  • FIG. 6 is a diagram illustrating an example of a second external electronic device 400 connected to the electronic device 200 according to certain embodiments.
  • the second external electronic device 400 may include a display 410 that displays various information on its front surface.
  • the second external electronic device 400 may display the first screen 411 and/or the second screen 412 on the display 410 .
  • the second external electronic device 400 receives a user input requesting to switch from the first screen 411 to the second screen 412 (eg, : swipe operation), a state in which the second screen 412 is displayed may be switched.
  • the second external electronic device 400 may display information received from the electronic device 200 on the first screen 411 .
  • various forms eg, text, icon
  • motion information eg, motion name, section information
  • the second external electronic device 400 provides the user's biometric information (eg, heart rate and/or calories) and/or motion information (eg, the number of operations) measured by the second external electronic device 200 . , operation time) of various types (eg, text, icon) may be displayed on the second screen 412 .
  • biometric information eg, heart rate and/or calories
  • motion information eg, the number of operations
  • operation time e.g., text, icon
  • FIGS. 7A, 7B, and 7C are diagrams illustrating an example in which a processor controls an external electronic device to output various information from the external electronic device according to certain embodiments.
  • FIG. 7A illustrates an example of controlling the processor to output various information to the external electronic device when it is detected that there is one electronic device for photographing one user and an external electronic device worn by a plurality of users. It is a drawing.
  • the processor 250 outputs various information in response to the presence of a plurality of users, the electronic device 200, the first external electronic device 300, and the second external of the first user.
  • the electronic device 401, the first user's third external electronic device 501, the second user's second external electronic device 402, and/or the second user's third external electronic device 502 can be controlled. have.
  • the processor 250 displays the user screen 620 in which the first external electronic device 300 includes the content screen 610 and/or the first user, and includes biometric information and/or motion information of the first user.
  • Control to display and output the object's posture information in audio format eg, by providing the object's posture guide voice, "If you straighten your back and keep your knees from touching the floor, you can do more effective jumping lunges." can do.
  • the processor 250 obtains biometric information (eg, heart rate 82, calorie consumption 254) and/or motion information (eg, twice the number of operations) of the first user from the second external electronic device 401 of the first user and the first user's second external electronic device 401 may control the first user's second external electronic device 401 to display the first user's biometric information and/or motion information.
  • the processor 250 may obtain biometric information (eg, heart rate 110, calorie consumption 293) and/or motion information (eg, number of operations 0) of the second user from the second external electronic device 402 of the second user. and the second external electronic device 402 of the second user may control the second external electronic device 402 of the second user to display the biometric information and/or motion information of the second user.
  • the processor 250 may obtain a user's motion change input from the second external electronic device 401 of the first user. When it is set to obtain the user's motion change input only from the second external electronic device 401 of the first user, the processor 250 is configured to receive the user's motion change input from the second external electronic device 402 of the second user. , may not switch behavior.
  • the processor 250 may analyze the user screen 620 including the first user and generate first feedback information on the posture of the first user.
  • the processor 250 provides the third external electronic device 501 of the first user with the first feedback information for the first user in the form of audio (eg, the feedback information customized to the first user as voice, “the right hand touches the floor) You can control it to be printed with “Put your hands on it and straighten your left hand behind your back”).
  • the processor 250 allows the third external electronic device 502 of the second user to display a guide related to the second user's biometric information and/or motion information in an audio format (eg, a voice guide based on biometric information, “maintaining an appropriate heart rate”). If you want to increase the intensity of your workout, try making the action a little louder”).
  • FIG. 7B is a diagram illustrating an example of controlling the processor to output various information to an external electronic device when there are a plurality of electronic devices for photographing a plurality of users and an external electronic device worn by the plurality of users, respectively; FIG. (as in Figure 7A rather than a single user).
  • the processor 250 in response to detecting the presence of a plurality of users, the processor 250 outputs various information to the electronic device (not shown), the first external electronic device 300, and the first user of the first user.
  • the second external electronic device 401, the first user's third external electronic device 501, the second user's second external electronic device 402, and the second user's third external electronic device 502 can be controlled. have.
  • the processor 250 includes a content screen 610 of the first external electronic device 300 and an image of the first user captured by the electronic device of the first user, and biometric information and/or motion information of the first user.
  • the processor 250 obtains biometric information (eg, heart rate 82, calorie consumption 254) and/or motion information (eg, twice the number of operations) of the first user from the second external electronic device 401 of the first user and the first user's second external electronic device 401 may control the first user's second external electronic device 401 to display the first user's biometric information and/or motion information.
  • the processor 250 may obtain biometric information (eg, heart rate 110, calorie consumption 293) and/or motion information (eg, number of operations 0) of the second user from the second external electronic device 402 of the second user. and the second external electronic device 402 of the second user may control the second external electronic device 402 to display the biometric information and/or motion information of the second user.
  • the processor 250 may obtain a user's motion change input from the second external electronic device 401 of the first user. When it is set to obtain the user's motion change input only from the second external electronic device 401 of the first user, the processor 250 is configured to receive the user's motion change input from the second external electronic device 402 of the second user. , may not switch behavior.
  • the processor 250 analyzes the first user screen 620 and/or the second user screen 630 , and provides first feedback information on the posture of the first user in the first user screen 620 and / Alternatively, second feedback information on the posture of the second user in the second user screen 630 may be generated.
  • the processor 250 may select an external electronic device for outputting the first feedback information and/or the second feedback information. According to an embodiment, the processor 250 identifies the electronic device (eg, the third external electronic device 501 ) worn by the first user corresponding to the first feedback information, and sets the identified electronic device to the first It may be determined as an electronic device to output feedback information. According to an embodiment, the processor 250 identifies the electronic device (eg, the third external electronic device 502 ) worn by the second user corresponding to the second feedback information, and sets the identified electronic device to the second It may be determined as an electronic device to output feedback information.
  • the electronic device eg, the third external electronic device 502
  • the processor 250 analyzes the user screen 620 , and includes a part of an object (eg, the first user's face) and memory (eg, the face of FIG. 2 ) included in the user screen 620 .
  • the memory 280 may compare identification information (eg, the face of the first user) of the object stored in advance.
  • the processor 250 may transmit feedback information related to an object matching the previously stored identification information of the object to an electronic device having a previously connected history (eg, the third external electronic device 501 of the first user).
  • the processor 250 transmits feedback information related to an object (eg, the second user) that does not match the previously stored identification information of the object to an electronic device (eg, a third external electronic device of the second user) 502)).
  • the processor 250 may select an external electronic device for outputting the first feedback information and/or the second feedback information. According to an embodiment, the processor 250 identifies the electronic device (eg, the third external electronic device 501 ) worn by the first user corresponding to the first feedback information, and sets the identified electronic device to the first It may be determined as an electronic device to output feedback information. According to an embodiment, the processor 250 identifies the electronic device (eg, the third external electronic device 502 ) worn by the second user corresponding to the second feedback information, and sets the identified electronic device to the second It may be determined as an electronic device to output feedback information.
  • the electronic device eg, the third external electronic device 502
  • the processor 250 transmits the first feedback information to an electronic device (eg, a third external electronic device of the first user (eg, a third external electronic device of the first user) 501)).
  • the processor 250 transmits the second feedback information to an electronic device having a history of being connected to the electronic device of the second user who photographed the second user screen 630 (eg, the third external electronic device 502 of the second user). can be sent to an electronic device (eg, a third external electronic device of the first user (eg, a third external electronic device of the first user) 501)).
  • the processor 250 transmits the second feedback information to an electronic device having a history of being connected to the electronic device of the second user who photographed the second user screen 630 (eg, the third external electronic device 502 of the second user). can be sent to
  • the processor 250 provides the first feedback information on the first user by the third external electronic device 501 of the first user in an audio format (eg, in the form of a voice customized feedback information for the first user, “the right hand is on the floor and the third external electronic device 502 of the second user may output the second feedback information about the second user in an audio form (eg, the second It is possible to control the output of customized feedback information for the user by voice, “Watch the video and take the right posture”).
  • an audio format eg, in the form of a voice customized feedback information for the first user, “the right hand is on the floor
  • the third external electronic device 502 of the second user may output the second feedback information about the second user in an audio form (eg, the second It is possible to control the output of customized feedback information for the user by voice, “Watch the video and take the right posture”).
  • 7C is an example of controlling the processor to output various information to the electronic device and/or external electronic device when there is one electronic device for photographing a plurality of users and there is an external electronic device worn by one user It is the drawing shown.
  • the processor 250 outputs various information in response to the presence of a plurality of users, the electronic device 200 , the first external electronic device 300 , and the second external of the first user
  • the electronic device 401 and the third external electronic device 501 of the first user may be controlled.
  • the processor 250 the first external electronic device 300 displays the content screen 610, provides the posture information of the object in an audio form (eg, the posture guide voice of the object), “Straighten your back, If you do not touch the floor, you can do more effective jumping lunges.”).
  • an audio form eg, the posture guide voice of the object
  • the processor 250 includes the first user and the second user photographed by the electronic device 200, and displays the user screen 620 including the first user's biometric information and/or motion information. 200) can be controlled.
  • the processor 250 obtains biometric information (eg, heart rate 82, calorie consumption 254) and/or motion information (eg, twice the number of operations) of the first user from the second external electronic device 401 of the first user and the first user's second external electronic device 401 may control the first user's second external electronic device 401 to display the first user's biometric information and/or motion information.
  • biometric information eg, heart rate 82, calorie consumption 254
  • motion information eg, twice the number of operations
  • a user's motion change input may be obtained from the first user's second external electronic device 401 .
  • the processor 250 analyzes the user screen 620 including the first user and/or the second user, and receives first feedback information on the posture of the first user and/or the posture of the second user. It is possible to generate second feedback information for
  • the processor 250 may select an external electronic device for outputting the first feedback information and/or the second feedback information.
  • the processor 250 identifies the electronic device (eg, the third external electronic device 501 ) worn by the first user corresponding to the first feedback information, and sets the identified electronic device to the first It may be determined as an electronic device to output feedback information.
  • the processor 250 analyzes the user screen 620 , and includes a part of an object (eg, the first user's face) and memory (eg, the face of FIG. 2 ) included in the user screen 620 .
  • the memory 280 may compare identification information (eg, the face of the first user) of the object stored in advance.
  • the processor 250 may transmit feedback information related to an object matching the previously stored identification information of the object to an electronic device having a previously connected history (eg, the third external electronic device 501 of the first user).
  • the processor 250 provides the third external electronic device 501 of the first user with the first feedback information for the first user in the form of audio (eg, the feedback information customized to the first user as voice, “the right hand touches the floor) You can control it to be printed with “Put your hands on it and straighten your left hand behind your back”).
  • audio eg, the feedback information customized to the first user as voice, “the right hand touches the floor
  • 8A, 8B, 8C, 8D, and 8E are diagrams for explaining an example of a UI included in an electronic device according to specific embodiments disclosed in this document.
  • the electronic device 200 may provide various types of user interfaces (UIs) for obtaining an input from a user in relation to an operation of providing feedback on the user's operation with respect to the operation of the content.
  • UIs user interfaces
  • the processor eg, the processor 250 of FIG. 2
  • the processor 250 may not initially display the menu bar on the display 220 in the standby state of the electronic device 200.
  • the menu bar is a specific menu bar requesting display. It may be selectively displayed according to a user input (eg, scroll down, touch).
  • the processor 250 may display an activated state and/or an inactive state of the icon 641 by switching in response to a user's touch input.
  • the processor 250 may execute a motion feedback mode that analyzes a user's motion with respect to an object motion in the content (eg, a motion of a trainer in a video). For example, the processor 250 may perform each operation of FIG. 3 when content is reproduced in response to the icon 641 being activated.
  • the processor eg, the processor 250 of FIG. 2
  • the processor 250 determines whether to execute a mirroring option related to displaying a related screen on an external electronic device in response to activation of a motion feedback mode that feeds back a user's motion with respect to an object motion in the content.
  • the smart view option 643 may display a content screen (eg, the content screen 610 of FIG. 5A ) on an external electronic device including a display (eg, the first external electronic device 200 of FIG. 4 ) and/or Alternatively, it may be an option related to displaying a user screen (eg, the user screen 620 of FIG. 5C ).
  • the processor 250 may request the user to select 645 an external electronic device to output the content screen 610 and/or the user screen 620 .
  • the smartphone screen option 644 is displayed on the display (eg, the electronic device 220 of FIG. 2 ) of the electronic device (eg, the electronic device 200 of FIG. 2 ) on the content screen 610 and/or the user screen ( 620) may be an option related to displaying.
  • the processor 250 may provide a UI for setting a motion feedback mode that provides a guide for a user's motion with respect to an object motion in the content (eg, a trainer in an exercise video).
  • the processor 250 includes a UI 651 related to whether a mirroring option is executed or not, a UI 652 related to the size, position, and ratio of the content screen 610 and/or the user screen 620, the user screen A UI 653 related to transparency adjustment of 620 may be provided.
  • the processor 250 may provide a user interface (UI) related to the end of the mode for providing the user's operation feedback on the operation of the content.
  • UI user interface
  • the processor 250 may end the feedback mode in response to the icon 641 being changed to an inactive state by another touch input.
  • the processor 250 may provide a pop-up window 661 instructing the end of the mode for providing motion feedback based on the content.
  • the processor 250 In response to terminating the mode of providing the user's motion feedback on the operation of the content, the processor 250 displays user information 413 related to the user's operation on the display 410 of the second external electronic device 400 , Example: You can control to display operation time for each operation, total operation time, calories burned, average heart rate).
  • the processor 250 displays a UI (eg, a trainer exercise image) related to activation of a mode that provides a user's motion feedback with respect to an object motion in the content, in the form of a pop-up window 646 . ) can be displayed on the UI (eg, a trainer exercise image) related to activation of a mode that provides a user's motion feedback with respect to an object motion in the content, in the form of a pop-up window 646 . ) can be displayed on the UI (eg, a trainer exercise image) related to activation of a mode that provides a user's motion feedback with respect to an object motion in the content, in the form of a pop-up window 646 . ) can be displayed on the UI (eg, a trainer exercise image) related to activation of a mode that provides a user's motion feedback with respect to an object motion in the content, in the form of a pop-up window 646 . ) can be displayed on the UI (eg, a
  • the processor 250 performs an operation (eg, exercise or dancing) in a field (eg, exercise or dance) in which an object in the content is specified while playing content (eg, a video interval) ) can be determined.
  • an operation eg, exercise or dancing
  • a field eg, exercise or dance
  • an action eg, exercise, dance
  • the processor 250 detects that a section in which an object in the content (eg, a trainer or a dancer) performs an action (eg, exercise, dance) exists in the video, based on the analysis of the motion of the object in the content, the user's A pop-up window 646 requesting a user input for confirming execution of a feedback mode providing motion feedback may be displayed on the display 220 .
  • An electronic device includes a display; camera; a memory for temporarily or non-temporarily storing content; and a processor operatively connected to the display, the camera, and the memory, wherein the processor analyzes an image included in the content to generate posture information of an object included in the image, and displays the content while acquiring an image including the first user through the camera, analyzing the image including the first user to generate the posture information of the first user, the posture information of the object and the first user Generate feedback information to be provided to the first user based on the comparison result of the posture information, and any one of attributes of the feedback information and/or functions of an external electronic device, the number of users, and a relationship between users and an external electronic device may be configured to determine the external electronic device to output the feedback information based on , and transmit the feedback information to the determined external electronic device.
  • the processor checks a degree of similarity between the posture information of the object and the posture information of the user based on the comparison result, and determines the posture of the user based on the similarity.
  • To generate feedback information including information divided into a matching region in which the similarity is equal to or greater than a first value, a similar region in which the similarity is less than a first value and a second value or more, and/or a dissimilarity region in which the similarity is less than a second value.
  • the processor displays a node corresponding to a part of the user's body and at least one line connecting the node on the image including the user, and the matching area is The first color line, the similar area may be displayed as a second color line, and the dissimilar area may be displayed as a third color line.
  • the processor provides the posture information of the object in an audio format and outputs the posture information of the object to an external electronic device equipped with an audio output function, the external electronic device can control
  • the processor may generate feedback information including information guiding posture in order to increase the similarity.
  • the processor generates the first user's posture information and the second user's posture information by distinguishing them, and generates the first feedback information in response to the first user's posture information. generating, generating second feedback information in response to the posture information of the second user, determining to output the first feedback information to the first external electronic device worn by the first user, and outputting the second feedback information to the second It may be determined to output to the second external electronic device worn by the user.
  • the processor implements the first feedback information and/or the second feedback information in an audio form, and uses the first feedback information as the audio worn by the first user. It may be determined to output the output to the first external electronic device equipped with the output function, and it may be determined to output the second feedback information to the second external electronic device equipped with the audio output function worn by the second user.
  • the processor analyzes the image included in the content to determine a first section related to the first operation, analyzes the image included in the content of the first section, Motion information of an object included in the image may be generated.
  • the processor generates name information of a first operation by analyzing an image included in the content of the first section, and transmits name information of the first operation to an external electronic device.
  • the external electronic device may be controlled to display on a display of the device.
  • the processor generates section information including a content reproduction time and/or a reproduction position of the first section, and transmits section information of the first section to an external electronic device.
  • the external electronic device may be controlled to display on the display.
  • the method may include: generating posture information of an object included in the image by analyzing an image included in temporarily or non-temporarily stored content; while displaying the content, acquiring an image including the first user through a camera; generating posture information of the first user by analyzing an image including the first user; generating feedback information to be provided to the first user based on a comparison result of the posture information of the object and the posture information of the first user; determining the external electronic device to output the feedback information based on any one of a property of the feedback information and/or a function of an external electronic device, a number of users, and a relationship between users and an external electronic device; and transmitting the feedback information to the determined external electronic device.
  • the method may include: checking a similarity between the posture information of the object and the posture information of the user based on the comparison result; And based on the degree of similarity, the user's posture is divided into a matching region where the similarity is equal to or greater than a first value, a similarity region in which the similarity is less than the first value and greater than or equal to a second value, and/or a dissimilarity region in which the similarity is less than a second value. and generating feedback information including the classified information.
  • the method includes: displaying a node corresponding to a user's body part and at least one line connecting the node on an image including the user; and displaying the matching area with a first color line, the similar area with a second color line, and the dissimilar area with a third color line.
  • the method may include: providing posture information of the object in an audio format; and controlling the external electronic device to output the posture information of the object to an external electronic device equipped with an audio output function.
  • the method of operating an electronic device may include generating feedback information including information for guiding a posture in order to increase the similarity.
  • the method includes: generating the first user's posture information and the second user's posture information separately; generating first feedback information in response to the posture information of the first user; generating second feedback information in response to the second user's posture information; determining to output the first feedback information to the first external electronic device worn by the first user; and determining to output the second feedback information to the second external electronic device worn by the second user.
  • the method may include: implementing the first feedback information and/or the second feedback information in an audio form; determining to output the first feedback information to a first external electronic device equipped with an audio output function worn by the first user; and determining to output the second feedback information to a second external electronic device equipped with an audio output function worn by the second user.
  • the method may include: analyzing the content to determine a first section related to a first operation; and analyzing the image included in the content of the first section to generate motion information of the object included in the image.
  • the method may include: generating name information of a first operation by analyzing an image included in content of the first section; and controlling the external electronic device to display name information of the first operation on a display of the external electronic device.
  • the method may include: generating section information including a content reproduction time and/or a reproduction position of the first section; and controlling the external electronic device to display the section information of the first section on a display of the external electronic device.
  • a or B at least one of A and B”, “or at least one of B,” “A, B or C,” “at least one of A, B and C,” and “B; or “at least one of C” may include any one of, or all possible combinations of, items listed together in the corresponding one of the phrases.
  • Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish an element from other elements in question, and may refer elements to other aspects (e.g., importance or order) is not limited. that one (e.g. first) component is “coupled” or “connected” to another (e.g. second) component with or without the terms “functionally” or “communicatively” When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치 및 방법이 개시된다. 상기 전자 전자 장치는 디스플레이, 카메라, 메모리 및 프로세서를 포함한다. 상기 프로세서는 상기 컨텐츠의 적어도 하나의 이미지를 분석하여 상기 적어도 하나의 이미지에 포함된 객체로부터 교정 자세 정보를 생성하고, 상기 컨텐츠를 디스플레이하는 동안, 제 1 사용자가 포함된 이미지를 상기 카메라를 통해 캡쳐하고, 상기 제 1 사용자가 포함된 이미지를 분석하여 상기 제 1 사용자의 제 1 자세 정보를 생성하고,상기 교정 자세 정보와 상기 제 1 자세 정보를 비교하여 상기 제 1 사용자에게 제공할 제 1 피드백 정보를 생성하고, 상기 제 1 피드백 정보의 속성, 제 1 외부 전자 장치의 기능, 사용자의 수 및 저장된 사용자와 상기 제 1 외부 전자 장치의 관계 중 어느 하나에 기반하여 상기 제 1 피드백 정보를 전송할 상기 제 1 외부 전자 장치를 선택하고, 상기 선택된 제 1 외부 전자 장치에 상기 제 1 피드백 정보를 전송하도록 설정될 수 있다.

Description

전자 장치 및 전자 장치의 동작 방법
본 문서에 개시된 특정 실시예들은, 전자 장치 및 전자 장치의 동작 방법에 관한 것으로서, 보다 상세하게는 컨텐츠 내의 객체 동작에 대하여 사용자 동작의 피드백을 제공하는 전자 장치 및 전자 장치의 동작 방법에 관한 것이다.
전자 장치의 통신 및 사용자 인터페이스의 기술이 발전함에 따라, 사용자는 장소 및 시간에 제약 없이 방대한 양의 정보에 이러한 전자 장치를 이용하여 접근할 수 있다.
사용자는 외부 미디어 소스로부터 사진, 텍스트, 음성, 동영상과 같은 다양한 형태의 데이터를 획득할 수 있다. 특히, 동영상 공유 플랫폼이 활성화됨에 따라 사용자는 멀티미디어와 동영상을 쉽게 획득할 수 있다.
최근에는 홈트레이닝과 같은 운동 분야의 동영상이 동영상 공유 플랫폼에 다량 업로드되고 있고, 사용자는 다양한 운동 동영상에 쉽게 접근할 수 있다. 이에 따라, 사용자는 퍼스널 트레이너(Personal Trainer)와 같은 전문적인 인력 없이도 해당 동영상 내의 동작을 보고 따라하며 신체적 운동을 수행할 수 있다.
그러나, 이와 같은 동영상 공유 플랫폼에서 획득한 운동 동영상은 동작에 대한 구체적인 정보를 제공하지 않은 경우가 많으며, 사용자는 본인의 자세가 정확한지에 대하여 구체적인 피드백을 받을 수 없어, 부상의 가능성이 증가할 수 있다.
동영상 공유 플랫폼의 확대로 인해, 전자 장치의 사용자는 운동, 교육, 게임, 요리와 같은 다양한 주제의 동영상에 접근할 수 있다.
본 문서에 개시된 특정 실시예들은 외부 미디어 소스(예 : 서드 파티 앱)로부터 획득한 공유 동영상에 대하여 공유 비디오들에 포함된 컨텐츠, 관련 영상의 구성을 분석하고, 동작의 정확도를 결정하여 동작 보조 및 가이드 정보를 제공할 수 있다.
구체적으로, 본 문서에 개시된 특정 실시예들의 전자 장치는 획득한 동영상을 분석하여, 사용자가 따라 할 수 있는 동작이 포함된 구간(비디오 내의 객체가 행하는 운동이나 춤 등)을 구분하고, 상기 동작들을 종류별로 분류한 뒤, 연결된 외부 전자 장치들을 기능적으로 조합하여 상기 사용자가 상기 묘사된 동작을 정확하게 따라할 수 용이하게할 수 있다.
예를 들어, 본 문서에 개시된 전자 장치는 외부 미디어 소스에 업로드된 운동 영상을 분석한 뒤 동작의 종류별로 구간을 나누고, 이러한 정보를 활용하여 사용자가 사용할 수 있는 다른 외부 전자 장치와 상호 운영하여 동작을 보다 정확하게 따라할 수 있다. 정보는 운동의 설명, 적절한 반복 횟수의 카운트, 사용자의 형태 및/또는 동작의 오류 판단 등을 포함할 수 있다.외부 전자 장치는 동작을 트래킹, 스마트폰과 같은 영상 촬영 기기, 사용자의 동작을 측정할 수 있는 웨어러블 디바이스, 오디오 가이드 제공할 수 있는 오디오 입력 장치 등을 포함할 수 있다. 따라서, 운동을 도와줄 수 있는 하나 또는 다수의 포맷을 운영하는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 사용자 인터페이스는 텍스트로 출력되는 반복 횟수 및 총 운동 시간, 특정 운동 동작을 중심으로 한 구간 특정 운동 동작 정보를표시할 수 있다. 따라서, 사용자는 보조 정보가 제공되는 어플리케이션을 사용하지 않고도, 외부 미디어 소스로부터 획득한 운동 영상과 내 모습을 함께 보면서 운동할 수 있다.사용자는 동작의 정확도, 반복 횟수 카운트 및/또는 해당 장치 또는 연동된 디바이스에서 측정되는 심박과 칼로리 정보와 같은 생체 트래킹의 피드백를 제공받을 수 있다.
따라서, 본 발명은 전자 장치의 작동과 관련된 기술적 문제를 해결하고 전자 장치의 작동에 있어 사용자 편의성을 증가시킨다.본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 문서에 개시된 특정 실시예들에 따른 전자 장치는 디스플레이; 카메라; 컨텐츠를 일시적으로 또는 비일시적으로 저장하는 메모리; 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 컨텐츠의 적어도 하나의 이미지를 분석하여 상기 적어도 하나의 이미지에 포함된 객체로부터 교정 자세 정보를 생성하고, 상기 컨텐츠를 디스플레이하는 동안, 제 1 사용자가 포함된 이미지를 상기 카메라를 통해 캡쳐하고, 상기 제 1 사용자가 포함된 이미지를 분석하여 상기 제 1 사용자의 제 1 자세 정보를 생성하고,상기 교정 자세 정보와 상기 제 1 자세 정보를 비교하여 상기 제 1 사용자에게 제공할 제 1 피드백 정보를 생성하고, 상기 제 1 피드백 정보의 속성, 제 1 외부 전자 장치의 기능, 사용자의 수 및 저장된 사용자와 상기 제 1 외부 전자 장치의 관계 중 어느 하나에 기반하여 상기 제 1 피드백 정보를 전송할 상기 제 1 외부 전자 장치를 선택하고, 상기 선택된 제 1 외부 전자 장치에 상기 제 1 피드백 정보를 전송하도록 설정될 수 있다.
본 문서에 개시된 특정 실시예들에 따른 전자 장치의 동작 방법은 저장된 컨텐츠에 포함된 적어도 하나의 이미지를 분석하여 상기 적어도 하나의 이미지에 포함된 객체의 교정 자세 정보를 생성하는 동작; 상기 컨텐츠를 디스플레이하는 동안, 제 1 사용자가 포함된 이미지를 카메라를 통해 캡쳐하는 동작; 상기 제 1 사용자가 포함된 이미지를 분석하여 상기 제 1 사용자의 제 1 자세 정보를 생성하는 동작; 상기 교정 자세 정보와 상기 제 1 자세 정보를 비교하여 상기 제 1 사용자에게 제공할 제 1 피드백 정보를 생성하는 동작; 상기 제 1 피드백 정보의 속성, 제 1 외부 전자 장치의 기능, 사용자의 수 및 저장된 사용자와 상기 제 1 외부 전자 장치의 관계 중 어느 하나 에 기반하여 상기 제 1 피드백 정보를 전송할 상기 제 1 외부 전자 장치를 선택하는 동작; 및 상기 선택된 제 1 외부 전자 장치에 상기 제 피드백 정보를 전송하는 동작;을 포함할 수 있다.
사용자는 운동 동작 가이드 및 보조 정보를 제공받아, 퍼스널 트레이너(Personal Trainer)의 도움 없이도 보다 정확하게 공유 운동 동영상에 묘사된 운동을 수행할 수 있다.
또한, 사용자는 외부 미디어 소스에서 원하는 동작을 수행하는 동영상을 선택하여 동작 보조 정보를 제공받음으로써, 컨텐츠의 제한 없이 운동 보조 정보를 제공받을 수 있다.
또한, 동작을 따라하는 사용자는 본인의 자세의 정확도에 관한 피드백을 제공받음으로써, 사용자는 자세 및 동작을 바로잡아 운동 효과를 높이고 부상을 예방할 수 있다.
또한, 운동 보조 정보의 속성 및/또는 외부 전자 장치의 특정 기능에 기반하여 외부 전자 장치별로 분리된 운동 보조 정보를 제공하여, 운동을 위한 멀티 디바이스 환경을 제공할 수 있다.
또한, 복수의 사용자가 있는 경우에, 각 사용자별로 운동 보조 정보를 제공하여 사용자 맞춤형 정보를 제공할 수 있다.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은, 특정 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는, 본 문서에 개시된 특정 실시예들에 다른 전자 장치의 블록도이다.
도 3은, 본 문서에 개시된 특정 실시예들에 따른 프로세서가 컨텐츠 내의 객체 동작에 대하여 사용자 동작의 피드백을 제공하도록 전자 장치를 제어하는 방법을 도시한 흐름도이다.
도 4는, 본 문서에 기재된 특정 실시예들에 따른 전자 장치 및 전자 장치와 관련된 외부 전자 장치를 도시한 도면이다.
도 5a 및 도 5b는, 본 문서에 기재된 특정 실시예들에 따른, 컨텐츠 화면의 예시를 도시한 도면이다.
도 5c는 및 도 5d는, 본 문서에 기재된 특정 실시예들에 따른, 사용자가 포함된 사용자 화면의 예시를 도시한 도면이다.
도 5e 및 도 5f는 특정 실시예들에 따른, 컨텐츠 화면과 사용자 화면을 디스플레이하는 예시를 도시한 도면이다.
도 6은 특정 실시예들에 따른, 전자 장치와 연결되는 제 2 외부 전자 장치의 예시를 도시한 도면이다.
도 7a, 도 7b 및 도 7c는 특정 실시예들에 따른 프로세서가 다양한 정보를 외부 전자 장치에서 출력하도록 외부 전자 장치를 제어하는 예시를 도시한 도면이다.
도 8a, 도 8b, 도 8c, 도 8d 및 도 8e는, 본 문서에 개시된 특정 실시예들에 따른 전자 장치에 포함된 UI의 예시를 설명하기 위한 도면이다.
도 1은, 특정 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
특정 실시예들에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는, 본 문서에 개시된 특정 실시예들에 따른 전자 장치의 블록도이다.
도 2를 참조하면, 전자 장치(예 : 도 1의 전자 장치(101))(200)는 프로세서(예: 도 1의 프로세서(120))(250), 메모리(예: 도 1의 메모리(130))(280), 디스플레이(예: 도 1의 디스플레이(160))(220), 통신 모듈(예: 도 1의 통신 모듈(190))(290), 및/또는 카메라(예 : 도 1의 카메라 모듈(180))(270)를 포함할 수 있다. 도 2에 포함된 구성 요소는 전자 장치(200)에 포함된 구성들의 일부에 대한 것이며 전자 장치(200)는 이 밖에도 도 1에 도시된 것과 같이 다양한 구성요소를 포함할 수 있다.
메모리(280)는 도 1에서 설명한 메모리(130)일 수 있다. 메모리(280)는 외부로부터 수신된 컨텐츠 및/또는 전자 장치(200)의 또다른 메모리 및/또는 전자 장치(200)와 물리적으로 연결된 외부 메모리에 저장된 컨텐츠 중 적어도 하나를 일시적으로 또는 비일시적으로 저장할 수 있다. 여기서, 컨텐츠는 이미지 정보, 오디오 정보, 텍스트 중 적어도 하나를 포함할 수 있다.
디스플레이(220)는 도 1에서 설명한 디스플레이 모듈(160)일 수 있다. 프로세서(250)는 디스플레이(220)와 연결되어 다양한 정보가 디스플레이(220)를 통해 시각적으로 표시될 수 있도록 정보를 처리할 수 있다.
통신 모듈(290)은 도 1에서 설명한 통신 모듈(190)일 수 있다. 통신 모듈(290)은 네트워크(예 : 도 1의 제1네트워크(198) 및/또는 제2네트워크(199))를 통하여 외부 전자 장치와 통신하여 다양한 정보를 수신 및/또는 송신할 수 있다. 프로세서(250)는 통신 모듈(290)과 연결되어 통신 모듈(290)이 외부 전자 장치로부터 수신한 다양한 정보를 처리할 수 있다. 또한, 프로세서(250)는 통신 모듈(290)이 다양한 정보를 외부 전자 장치로 송신하도록 제어할 수 있다.
카메라(270)는 사용자 및/또는 전자 장치(200) 주변의 환경을 촬영할 수 있다. 프로세서(250)는 카메라(270)와 연결되어 카메라(270)가 촬영한 다양한 이미지 정보를 처리할 수 있다.
도 3은, 본 문서에 개시된 특정 실시예들에 따른 프로세서가 컨텐츠 내의 객체 동작에 대하여 사용자 동작의 피드백을 제공하도록 전자 장치를 제어하는 방법을 도시한 흐름도이다.
특정 실시예들에 따르면, 프로세서(예 : 도 2의 프로세서(250))는, 동작 1100에서, 컨텐츠에 포함된 이미지를 분석하여 이미지에 포함된 객체의 자세 정보를 생성할 수 있다.
일 실시예에 따르면, 컨텐츠는 외부 미디어 소스로부터 획득한 다양한 영상(예 : 홈트레이닝을 위한 운동 영상)을 포함할 수 있다. 컨텐츠는 이미지 정보, 오디오 정보, 텍스트 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 프로세서(250)는 컨텐츠 내에서 배경 영역과 비디오 내에서 표현된 트레이너와 같은 동작을 수행하는 객체를 구분할 수 있다. 일 실시예에 따르면, 객체의 자세 정보란 동작을 수행하는 객체의 신체의 각 일부의 상대적인 위치 정보를 의미할 수 있다.
일 실시예에 따르면, 프로세서(250)는 학습된 인공지능 모델에 컨텐츠에 포함된 영상을 구성하는 영상 프레임을 입력하여 입력된 영상 프레임의 특징값을 획득하고, 획득된 특징값을 기초로 객체를 구분하고, 객체의 자세 정보를 생성할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 컨텐츠에 포함된 이미지를 분석하여 이미지에 포함된 객체의 동작 정보(예 : 동작의 구간 구분, 동작의 명칭)를 생성할 수 있다. 일 실시예에 따르면, 프로세서(250)는 객체의 동작 정보에 기초하여 컨텐츠의 동작 구간을 구분하여 구간 정보를 생성할 수 있다. 예를 들어, 프로세서(250)는 객체가 제 1 동작을 수행하는 구간을 제 1 구간으로 구분하고, 객체가 제 2 동작을 수행하는 구간을 제 2 구간으로 구분할 수 있다. 프로세서(250)는 컨텐츠 내에서 해당하는 각 구간의 시작 위치, 종료 위치, 구간의 길이 정보를 각 구간의 구간 정보로 생성할 수 있다. 일 실시 예에 따르면, 프로세서(250)는 객체의 동작 정보에 기초하여 동작 명칭을 판단할 수 있다. 예를 들어, 프로세서(250)는 객체가 제 1 동작을 수행함에 대응하여, 제 1 동작의 일반적인 동작 명칭(예 : 점핑 런지, 와이드 스커트, 버핏 테스트, 크런치, 댄스)을 매칭할 수 있다. 일 실시예에 따르면, 프로세서(250)는 학습된 인공지능 모델에 컨텐츠에 포함된 영상을 구성하는 영상 프레임을 입력하여 입력된 영상 프레임의 특징값을 획득하고, 획득된 특징값을 기초로 객체의 동작 정보를 생성할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는, 동작 1200에서, 카메라를 통해 사용자가 포함된 이미지를 획득 할 수 있다.
일 실시에에 따르면, 프로세서(250)가 사용자가 포함된 이미지를 획득하는 카메라는 전자 장치(200)에 구비된 카메라(예 : 도 2의 카메라(270))를 포함할 수 있다.
일 실시예에 따르면, 프로세서(250)가 사용자가 포함된 이미지를 획득하는 카메라는 외부 전자 장치에 구비된 카메라(예 : 웹캠, 캠코더, 무선 카메라)를 포함할 수 있고, 외부 전자 장치에 구비된 카메라는 전자 장치(200)에 유선 및/또는 무선으로 연결될 수 있다.
일 실시예에 따르면, 프로세서(250)는 컨텐츠가 출력되는 동안, 카메라가 촬영 모드로 동작하도록 제어할 수 있고, 프로세서(250)는 카메라가 촬영한 사용자가 포함된 이미지를 획득 할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는, 동작 1300에서, 사용자가 포함된 이미지를 분석하여 사용자의 자세 정보를 생성할 수 있다.
일 실시예에 따르면, 프로세서(250)는 카메라가 촬영한 이미지에서 배경 영역과 사용자를 구분할 수 있다. 사용자의 자세 정보란 이미지 내의 사용자의 신체의 각 일부의 상대적인 위치 정보를 의미할 수 있다. 일 실시예에 따르면, 프로세서(250)는 학습된 인공지능 모델에 카메라가 촬영한 영상을 구성하는 영상 프레임을 입력하여 입력된 영상 프레임의 특징값을 획득하고, 획득된 특징값을 기초로 사용자의 자세 정보를 생성할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는, 통신 모듈(290)이 외부 장치(예 : 도4의 제 2 외부 장치(400))로부터 수신한 사용자의 생체 정보(예 : 심박수 및/또는 칼로리)및/또는 동작 정보(예 : 움직임)를 획득할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는, 동작 1400에서, 객체의 자세 정보와 사용자의 자세 정보를 비교하고, 비교 결과에 기반하여 사용자에게 제공할 피드백 정보(예 : 트레이너의 “보정된” 자세 정보)를 생성할 수 있다.
일 실시예에 따르면, 프로세서(250)는 피드백 정보에 기반하여 객체의 자세 정보와 사용자의 자세 정보의 유사도를 결정하고, 유사도에 기반하여 사용자의 자세를 적어도 두 개 이상의 영역으로 구분할 수 있다. 예를 들면, 프로세서(250)는, 유사도에 기반하여, 사용자의 신체를 복수의 영역으로 구분하고, 각 영역을 일치 영역(예: 유사도가 제 1 값 이상인 영역), 유사 영역(예: 유사도가, 제 1 값 미만이고, 제 2 값 이상인 영역) 및/또는 비유사 영역(예: 유사도가, 제 2 값 미만인 영역)으로 결정할 수 있다.
일 실시예에 따르면, 프로세서(250)는 피드백 정보를 시각화된 형태로 출력할 수 있다. 일 실시예에 따르면, 프로세서(250)는 피드백 정보를 시각화한 가이드 도형으로 구현할 수 있다. 예를 들어, 사용자의 신체의 일부(예 : 손목, 팔꿈치, 머리, 골반, 오금과 같은 관절)에 대응되는 노드를 생성하고, 신체의 추상적인 형상를 생성하기 위하여 노드를 연결하는 선을 부가하고, 추상적인 휴머노이드 시각화를 이용하여 사용자의 자세를 출력할 수 있다. 더욱이, 유사도에 기반하여 사용의 자세를 일치 영역, 유사 영역 및 비유사 영역으로 구분한 정보에 대응하여, 영역 내 사용자의 자세가 “일치”, “유사” 또는 “비유사”로 분류되는지 여부에 대응하여 노드 사이를 연결하는 선의 색깔을 다르게 하도록(예 : 일치 영역은 제 1 색 선, 유사 영역은 제 2 색 선, 비유사 영역은 제 3 색 선) 설정될 수 있다.
일 실시예에 따르면, 프로세서(250)는 피드백 정보를 오디오 형태로 구현할 수 있다. 예를 들어, 프로세서(250)는 비유사 영역에 대응하여, 사용자의 자세 정보와 객체의 자세 정보의 유사도를 높이기 위하여 자세를 가이드하는 문장을 오디오 형태로 구현할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는, 동작 1500에서, 피드백 정보를 출력할 외부 전자 장치를 선택할 수 있다. 예를 들어, 복수의 외부 전자 장치는 통신 가능할 수 있다. 일 실시예에 따르면, 프로세서(250)는 피드백 정보의 속성, 외부 전자 장치의 미리 저장된 기능, 현재 사용자의 수 및 미리 저장된 사용자와 외부 전자 장치의 관계 중 적어도 어느 하나 에 기반하여 피드백 정보를 출력할 외부 전자 장치를 결정할 수 있다.
일 실시예에 따르면, 프로세서(250)는 피드백 정보를 오디오 형태로 구현함에 대응하여, 음향 출력 기능을 탑재한 외부 전자 장치에 피드백 정보를 출력하도록 결정할 수 있다. 일 실시예에 따르면, 프로세서(250)는 피드백 정보를 시각화 형태로 구현함에 대응하여, 디스플레이를 포함한 외부 전자 장치에 피드백 정보를 출력하도록 결정할 수 있다.
일 실시예에 따르면, 프로세서(250)는 복수의 사용자에 대한 복수의 피드백 정보가 생성됨에 대응하여, 제 1 사용자의 외부 전자 장치에 제 1 사용자에 대응하는 제 1 피드백 정보를 출력하고, 제 2 사용자의 외부 전자 장치에 제 2 사용자에 대응하는 제 2 피드백 정보를 출력하도록 결정할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는, 컨텐츠 내의 객체의 동작 정보 및/또는 사용자의 생체 정보 및/또는 동작 정보를 출력할 외부 전자 장치를 결정할 수 있다. 일 실시예에 따르면, 프로세서(250)는 객체의 동작 정보 및/또는 사용자의 생체 정보 및/또는 동작 정보를 시각적으로 (예:텍스트, 도형) 구현함에 대응하여, 디스플레이를 포함한 외부 전자 장치에 객체의 동작 정보 및/또는 사용자의 생체 정보 및/또는 동작 정보를 출력하도록 결정할 수 있다.
일 실시예에 따르면, 프로세서(250)는, 객체의 자세 정보를 오디오 형태로 구현함에 대응하여, 음향 출력 기능을 탑재한 외부 전자 장치에 객체의 자세 정보를 출력하도록 결정할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는, 동작 1600에서, 피드백 정보를 출력을 위해 결정된 외부 전자 장치에 전송할 수 있다.
일 실시예에 따르면, 프로세서(250)는 통신 모듈(예 : 도 2의 통신 모듈(290))이 외부 전자 장치에 네트워크(예 : 도 1의 제1네트워크(198) 및/또는 제2네트워크(199))를 통하여 피드백 정보를 송신하도록 제어할 수 있다.
도 4는, 본 문서에 기재된 특정 실시예들에 따른 전자 장치 및 전자 장치와 관련된 외부 전자 장치를 도시한 도면이다.
특정 실시예들에 따르면, 전자 장치(200)는 제 1 외부 전자 장치(300), 제 2 외부 전자 장치(400) 및 제 3 외부 전자 장치(500) 중 적어도 어느 하나와 연결될 수 있다. 일 실시 예에 따르면, 전자 장치(200)는 네트워크(예 : 도 1의 제 1 네트워크(198))를 통하여 제 1 외부 전자 장치(300), 제 2 외부 전자 장치(400) 및 제 3 외부 전자 장치(500) 중 적어도 어느 하나와 통신하도록 통신 모듈(예: 도 2의 통신 모듈(290))을 제어할 수 있다. 일 실시 예에 따르면, 제 1 외부 전자 장치(300), 제 2 외부 전자 장치(400) 및 제 3 외부 전자 장치(500) 간에 네트워크를 통하여 상호 연결될 수 있다.
특정 실시예들에 따르면, 전자 장치(200)는 제 1 외부 전자 장치(300), 제 2 외부 전자 장치(400) 및/또는 제 3 외부 전자 장치(500)로부터 다양한 정보를 수신할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 사용자의 생체 정보(예: 심박수 및/또는 칼로리)및/또는 동작 정보(예 : 움직임)를 수집할 수 있는 제 2 외부 장치(400)로부터 사용자의 생체 정보 및/또는 동작 정보를 수신할 수 있다.
특정 실시예들에 따르면, 제 1 외부 전자 장치(300)는 디스플레이를 포함하는 전자 장치(예: TV, 모니터, 프로젝터)일 수 있다. 특정 실시예들에 따르면, 제 1 외부 전자 장치(300)는 음향 출력 모듈(예 : 스피커)을 포함할 수 있다. 특정 실시예들에 따르면, 제 1 외부 전자 장치(300)는 전자 장치(200)로부터 수신한 다양한 정보를 디스플레이 상에 디스플레이하거나, 음향 출력 모듈에 출력할 수 있다. 일 실시예에 따르면, 제 1 외부 전자 장치(300)는 전자 장치(200)로부터 수신한 컨텐츠 화면(예: 도 5a의 컨텐츠 화면(610)) 및/또는 사용자 화면(예 : 도 5c의 사용자 화면(620))을 디스플레이 상에 디스플레이할 수 있다. 일 실시예에 따르면, 제 2 외부 전자 장치(300)는 전자 장치(200)로부터 수신한 객체의 자세 정보 및/또는 피드백 정보를 스피커에 출력할 수 있다.
특정 실시예들에 따르면, 제 2 외부 전자 장치(400)는 사용자의 생체 정보(예 : 심박수 및/또는 칼로리)를 및/또는 동작 정보(예 : 움직임)를 측정하는 기능을 포함한 전자 장치(예 : 웨어러블 디바이스 및/또는 스마트워치)일 수 있다. 일 실시예에 따르면, 제 2 외부 전자 장치(400)는 측정한 사용자의 생체 정보 및/또는 동작 정보를 전자 장치(200)에 송신할 수 있다. 특정 실시예들에 따르면, 제 2 외부 전자 장치(400)는 디스플레이를 포함할 수 있다. 일 실시예에 따르면, 제 2 외부 전자 장치(200)는 측정한 사용자의 생체 정보 및/또는 동작 정보를 디스플레이 상에 디스플레이할 수 있다. 제 2 외부 전자 장치(400)는 전자 장치(200)로부터 수신한 다양한 정보를 디스플레이 상에 디스플레이할 수 있다. 일 실시예에 따르면, 제 2 외부 전자 장치(400)는 전자 장치(200)로부터 수신한 객체의 동작 정보(예 : 동작 구간, 동작 명칭)를 디스플레이에 디스플레이할 수 있다.
특정 실시예들에 따르면, 제 3 외부 전자 장치(500)는 음향 출력 모듈을 포함할 수 있다(예 : 히어러블 디바이스, 스피커 및/또는 이어폰). 특정 실시예들에 따르면, 제 3 외부 전자 장치(500)는 전자 장치(200)로부터 수신한 다양한 정보를 오디오 형태로 출력할 수 있다. 일 실시예에 따르면, 제 3 외부 전자 장치(500)는 전자 장치(200)로부터 수신한 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력할 수 있다.
특정 실시예들에 따르면, 전자 장치(200)의 프로세서(예 : 도 2의 프로세서(250))는 컨텐츠 내의 객체 동작 및/또는 사용자의 동작에 관련한 다양한 정보를 전자 장치(200), 제 1 외부 전자 장치(300), 제 2 외부 전자 장치(400) 및/또는 제 3 외부 전자 장치(500)에서 출력하도록 제어할 수 있다. 프로세서(250)는 송신할 정보의 속성 및/또는 전자 장치의 기능에 기반하여 정보를 출력할 전자 장치를 결정할 수 있다.
표 1은 일 실시예에 따른, 제 1 외부 전자 장치, 전자 장치, 제 2 외부 전자 장치 및 제 3 외부 전자 장치가 수행 가능한 전자 장치의 기능을 도시한 표이다.
기능 제 1 외부 전자장치 전자 장치 제 2 외부 전자 장치 제 3 외부 전자 장치
컨텐츠 화면 디스플레이 O O X X
사용자 화면 디스플레이 O X X
객체의 자세 정보 및/또는 피드백 정보 오디오 형태로 출력 O O X O
다른 동작으로 전환 입력 수신 X O O O
사용자의 자세 정보 생성 X O X X
사용자의 생체 정보 측정 X X O X
사용자의 동작 정보 측정 X X O X
사용자의 생체 정보 및/또는 동작 정보 디스플레이 O O O X
표 1을 참조하면 'O : 해당 기능을 제공, X : 해당 기능을 제공하지 않음, △ : 조건에 따라 해당 기능을 제공할 수 있음'을 의미한다.일 실시예에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300) 및/또는 전자 장치(200)에 컨텐츠 화면(예 : 도 5a의 컨텐츠 화면(610))을 디스플레이하도록 제어할 수 있다.일 실시예에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300) 및/또는 전자 장치(200)에 사용자 화면(예 : 도 5c의 사용자 화면(620))을 디스플레이하도록 제어할 수 있다. 일 실시예에 따르면, 프로세서(250)는 전자 장치(200)에 구비된 카메라(270) 및/또는 외부 전자 장치에 구비된 카메라가 촬영한 사용자가 포함된 이미지를 획득하여 사용자 화면(620)을 구성할 수 있다.
일 실시예에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300), 전자 장치(200), 제 3 외부 전자 장치(500) 중 어느 하나에 컨텐츠 내의 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하도록 제어할 수 있다. 일 실시예에 따르면, 상기 장치들이 전자 장치(200)에 2개 이상 연결되어 있음에 대응하여, 프로세서(250)는 사용자 설정, 정보의 속성 및 지정된 조건 중 어느 하나에 기반하여 상기 정보들 중 어느 하나를 상기 장치들 중 어느 하나에 출력하도록 제어할 수 있다. 예를 들어, 프로세서(250)는 객체의 자세 정보를 제 1 외부 전자 장치(300) 및/또는 전자 장치(200)중 어느 하나에서 출력하고, 피드백 정보를 제 3 전자 장치(500)에 출력하도록 제어할 수 있다.
일 실시예에 따르면, 프로세서(250)는 전자 장치(200), 제 2 외부 전자 장치(400), 제 3 외부 전자 장치(500) 중 어느 하나로부터 컨텐츠에서 출력 중인 동작을 컨텐츠 내의 다른 동작으로 전환하도록 하는 사용자의 동작 전환 입력을 수신할 수 있다. 일 실시예에 따르면, 상기 장치들이 전자 장치(200)에 2개 이상 연결되어 있음에 대응하여, 연결된 모든 전자 장치로부터 입력을 수신하거나 및/또는 연결된 전자 장치 중 미리 설정된 전자 장치로부터만 입력을 수신할 수 있다.
일 실시예에 따르면, 프로세서(250)는 사용자가 포함된 이미지를 이용하여 사용자의 자세 정보를 생성할 수 있다. 프로세서(250)는, 카메라를 통해 획득한 이미지에 포함된 사용자의 자세를 분석하고, 분석된 자세에 기반하여 사용자의 자세 정보를 생성할 수 있다.
일 실시예에 따르면, 프로세서(250)는 제 2 외부 전자 장치(400)를 통하여 사용자의 생체 정보(예 : 심박수 및/또는 칼로리) 정보 및/또는 동작 정보(예 : 동작 횟수 및/또는 동작 시간)를 획득하도록 제어할 수 있다.
일 실시예에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300), 전자 장치(200), 제 2 외부 전자 장치(400) 중 적어도 어느 하나의 전자 장치가 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 제 1 외부 전자 장치(300), 전자 장치(200), 제 2 외부 전자 장치(400) 중 적어도 어느 하나의 전자 장치를 제어할 수 있다. 일 실시예에 따르면, 프로세서(250)는 사용자의 생체 정보 및/또는 동작 정보를 사용자 화면(620)에 포함하는 형태로 제 1 외부 전자 장치(300) 및/또는 전자 장치(200) 상에 디스플레이하도록 제 1 외부 전자 장치(300) 및/또는 전자 장치(200)를 제어할 수 있거나 및/또는 제 2 외부 전자 장치(400) 상에 텍스트, 아이콘과 같은 형태로 디스플레이하도록 제 2 외부 전자 장치(400)를 제어할 수 있다.
프로세서(250)는 사용자가 활용 가능한 전자 장치의 종류, 수, 동작의 수행 시간과 관련된다양한 상황에 대응하여, 컨텐츠 내의 객체 동작 및/또는 사용자의 동작에 관련한 다양한 정보를 전자 장치(200), 제 1 외부 전자 장치(300), 제 2 외부 전자 장치(400), 제 3 외부 전자 장치(500)에서 생성, 획득 및/또는 출력하도록 제어할 수 있다.
일 실시예에 따르면, 전자 장치의 종류는 디스플레이 포함 유무, 디스플레이의 크기, 카메라 포함 유무, 음향 출력 모듈 포함 유무, 생체 센서 포함 유무, 동작 감지 센서 포함 유무 및/또는 입력 모듈 포함 유무에 따라 분류될 수 있다. 일 실시예에 따르면, 프로세서(250)는 디스플레이를 포함하는 장치에 컨텐츠 화면, 사용자 화면, 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 디스플레이를 포함하는 장치를 제어할 수 있다. 또한, 프로세서(250)는 지정된 크기 이상의 디스플레이를 포함하는 장치에 컨텐츠 화면 및/또는 사용자 화면을 디스플레이하고, 사용자의 생체 정보 및/또는 동작 정보를 사용자 화면에 포함하는 형태로 디스플레이하도록 지정된 크기 이상의 디스플레이를 포함하는 장치를 제어할 수 있고, 지정된 크기 미만의 디스플레를 포함하는 장치에 사용자의 생체 정보 및/또는 동작 정보를 텍스트 및/또는 아이콘 형태로 디스플레이 하도록 지정된 크기 미만의 디스플레를 포함하는 장치를 제어할 수 있다. 일 실시예에 따르면, 프로세서(250)는 카메라를 포함하는 장치로부터 사용자를 포함하는 이미지를 획득하여 사용자 화면을 구성할 수 있다. 일 실시예에 따르면, 프로세서(250)는 음향 출력 모듈을 포함하는 장치에 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하도록 음향 출력 모듈을 포함하는 장치를 제어할 수 있다. 일 실시예에 따르면, 프로세서(250)는 생체 센서 및/또는 동작 감지 센서를 포함하는 장치로부터 사용자의 생체 정보 및/또는 동작 정보를 획득하도록 생체 센서 및/또는 동작 감지 센서를 포함하는 장치를 제어할 수 있다. 일 실시예에 따르면, 프로세서(250)는 다양한 형태의 입력 모듈을 포함하는 장치로부터 사용자의 동작 전환 입력을 획득하도록 다양한 형태의 입력 모듈을 포함하는 장치를 제어할 수 있다. 일 실시예에 따르면, 제 1 외부 전자 장치(300)는 일정 크기 이상의 디스플레이, 음향 출력 모듈 및/또는 카메라를 포함할 수 있다. 또한, 전자 장치(200)는 일정 크기 이상의 디스플레이, 음향 출력 모듈, 입력 모듈 및/또는 카메라를 포함할 수 있다. 또한, 제 2 외부 전자 장치(400)는 일정 크기 미만의 디스플레이, 생체 센서, 동작 감지 센서 및/또는 입력 모듈을 포함할 수 있다. 또한, 제 3 외부 전자 장치(500)는 음향 출력 모듈 및/또는 입력 모듈을 포함할 수 있다.
일 실시예에 따르면, 사용자가 활용 가능한 전자 장치 중에서 동기능을 수행할 수 있는 장치가 복수개임에 대응하여, 프로세서(250)는 상기 모든 장치에서 상기 기능을 수행하거나, 및/또는 일부 장치에서만 상기 기능을 수행하도록 복수개의 장치를 제어할 수 있다. 예를 들어, 디스플레이를 포함하는 장치가 복수 개인 경우, 프로세서(250)는 모든 디스플레이를 포함하는 장치에 사용자의 생체 정보 및/또는 동작 정보를 디스플레이 하거나, 일부 디스플레이를 포함하는 장치에 사용자의 생체 정보를 디스플레이하고 일부 디스플레이를 포함하는 장치에 동작 정보를 디스플레이 하거나, 일부 디스플레이를 포함하는 장치에 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 상기 복수개의 디스플레이를 포함하는 장치를 제어할 수 있다. 다른 예를 들어, 지정된 크기 이상의 디스플레이를 포함하는 전자 장치가 복수 개인 경우, 프로세서(250)는 모든 지정된 크기 이상의 디스플레이를 포함하는 장치에 컨텐츠 화면 및/또는 사용자 화면을 디스플레이 하거나, 일부 지정된 크기 이상의 디스플레이를 포함하는 전자 장치에 컨텐츠 화면을 디스플레이하고 일부 지정된 크기 이상의 디스플레이를 포함하는 전자 장치에 사용자 화면을 디스플레이 하도록 상기 복수개의 지정된 크기 이상의 디스플레이를 포함하는 장치를 제어할 수 있다. 또 다른 예를 들어, 음향 출력 모듈을 포함하는 장치가 복수 개인 경우, 프로세서(250)는 모든 음향 출력 모듈을 포함하는 장치에 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하거나, 일부 음향 출력 모듈을 포함하는 장치에 객체의 자세 정보를 출력하고, 일부 음향 출력 모듈을 포함하는 장치에 피드백 정보를 출력하도록 상기 복수개의 음향 출력 모듈을 포함하는 장치를 제어할 수 있다.
일 실시예에 따르면, 프로세서(250)는 동작의 수행 시간에 기반하여 음향 출력 모듈을 포함하는 장치에 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력할 수 있다. 예를 들어, 동작의 수행 시간이 낮 시간임에 대응하여, 프로세서(250)는 음향 출력 모듈이 스피커 형태인 장치에서 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하도록 음향 출력 모듈을 포함하는 장치를 제어할 수 있다. 또 다른 예를 들어, 동작의 수행 시간이 밤 시간임에 대응하여, 프로세서(250)는 음향 출력 모듈이 이어폰 형태인 장치에서 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하도록 음향 출력 모듈을 포함하는 장치를 제어할 수 있다.일 실시예에 따르면, 프로세서(250)는, 사용자가 활용 가능한 전자 장치가 전자 장치(200), 제 1 외부 전자 장치(300) 및 제 2 외부 전자 장치(400)임에 대응하여, 전자 장치(200)가 사용자 화면(620)을 디스플레이하고, 사용자의 자세 정보를 생성하고, 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 제어하고, 제 1 외부 전자 장치(300)가 컨텐츠 화면(610)을 디스플레이하고, 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하도록 제어하고, 제 2 외부 전자 장치(400)를 통하여 사용자의 동작 전환 입력을 획득하고, 사용자의 생체 정보 및/또는 동작 정보를 획득하도록 제어할 수 있다.
일 실시예에 따르면, 프로세서(250)는, 사용자가 활용 가능한 전자 장치가 전자 장치(200) 및 제 2 외부 전자 장치(400)임에 대응하여, 전자 장치(200)가 컨텐츠 화면(610) 및 사용자 화면(620)을 디스플레이하고, 사용자의 자세 정보를 생성하고, 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하도록 제어하고, 제 2 외부 전자 장치(400)를 통하여 사용자의 동작 전환 입력을 획득하고, 사용자의 생체 정보 및/또는 동작 정보를 획득하도록 제어할 수 있다.
본 발명의 특정 실시예들에 따르면, 프로세서(250)는, 전자 장치(200)와 연결된 다양한 전자 장치(예: 제 1 외부 전자 장치(300), 제 2 외부 전자 장치(400) 및/또는 제 3 외부 전자 장치(500) 중 피드백 정보를 출력할 전자 장치를 선택하고, 선택된 전자 장치로 피드백 정보를 전송할 수 있다. 프로세서(250)는, 피드백 정보를 출력할 시간에 따라, 피드백 정보를 출력할 전자 장치를 다르게 선택할 수 있다.
일 실시예에 따르면, 프로세서(250)는, 사용자가 활용 가능한 장치가 전자 장치(200), 제 1 외부 전자 장치(300) 제 2 외부 전자 장치(400) 및 제 3 외부 전자 장치(500)이고, 컨텐츠 내의 객체 동작에 대한 사용자의 동작을 피드백하는 동작의 수행 시간이 특정 시간(예: 야간 시간)임에 대응하여, 전자 장치(200)가 사용자 화면(620)을 디스플레이하고, 사용자의 자세 정보를 생성하고, 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 제어하고, 제 1 외부 전자 장치(300)가 컨텐츠 화면(610)을 디스플레이하도록 제어하고, 제 2 외부 전자 장치(400)를 통하여 사용자의 동작 전환 입력을 획득하고, 사용자의 생체 정보 및/또는 동작 정보를 획득하도록 제어하고, 제 3 외부 전자 장치(500)가 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하도록 제어할 수 있다.
일 실시예에 따르면, 프로세서(250)는, 사용자가 활용 가능한 장치가 전자 장치(200), 제 1 외부 전자 장치(300) 제 2 외부 전자 장치(400) 및 제 3 외부 전자 장치(500)이고, 컨텐츠 내의 객체 동작에 대하여 사용자의 동작을 피드백하는 동작의 수행 시간이 특정 시간(예: 낮 시간)임에 대응하여, 전자 장치(200)가 사용자 화면(620)을 디스플레이하고, 사용자의 자세 정보를 생성하고, 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 제어하고, 제 1 외부 전자 장치(300)가 컨텐츠 화면(610)을 디스플레이하고, 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하도록 제어하고, 제 2 외부 전자 장치(400)를 통하여 사용자의 생체 정보 및/또는 동작 정보를 획득하도록 제어하고, 제 3 외부 전자 장치(500)를 통하여 사용자의 동작 전환 입력을 획득하도록 제어할 수 있다.
일 실시예에 따르면, 프로세서(250)는, 사용자가 활용 가능한 장치가 제 1 외부 전자 장치(300) 및 제 2 외부 전자 장치(400)임에 대응하여, 제 1 외부 전자 장치(300)가 컨텐츠 화면(610)을 디스플레이하고, 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하고, 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 제어하고, 제 2 외부 전자 장치(400)를 통하여 사용자의 동작 전환 입력을 획득하고, 사용자의 생체 정보 및/또는 동작 정보를 획득하도록 제어할 수 있다.
일 실시예에 따르면, 프로세서(250)는, 사용자가 활용 가능한 장치가 전자 장치(200) 및 제 3 외부 전자 장치(500)임에 대응하여, 전자 장치(200)가 컨텐츠 화면(610) 및 사용자 화면(620)을 디스플레이하고, 사용자의 자세 정보를 생성하고, 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 제어하고, 제 2 외부 전자 장치(400)를 통하여 사용자의 동작 전환 입력을 획득하고, 객체의 자세 정보 및/또는 피드백 정보를 오디오 형태로 출력하도록 제어할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는, 복수의 사용자에게 귀속하는 복수의 전자 장치 및/또는 복수의 외부 전자 장치가 있음에 대응하여, 출력할 정보의 속성, 전자 장치의 기능, 사용자의 수 및 사용자와 외부 전자 장치와의 관계 중 어느 하나에 기반하여 정보를 출력할 전자 장치를 결정할 수 있다. 예를 들어, 프로세서(250)는 복수의 사용자가 있음에 대응하여, 사용자 각각의 자세 정보 및/또는 피드백 정보를 생성하고, 사용자 각각의 생체 정보 및/또는 동작 정보를 획득하여 각 사용자와 관련된 장치에서 출력하도록 각 사용자와 관련된 장치를 제어할 수 있다.
표 2는 일 실시예에 따른, 제 1 외부 전자 장치, 제 1 사용자의 전자 장치, 제 1 사용자의 제 2 외부 전자 장치, 제 1 사용자의 제 3 외부 전자 장치, 제 2 사용자의 전자 장치, 제 2 사용자의 제 2 외부 전자 장치 및 제 2 사용자의 제 3 외부 전자 장치가 수행 가능한 전자 장치의 기능을 도시한 표이다.
기능 제 1 외부 전자 장치 제1사용자의
전자 장치
제1사용자의 제 2 외부 전자 장치 제1사용자의 제 3 외부 전자 장치 제2사용자의 전자 장치 제2사용자의 제 2 외부 전자 장치 제2사용자의 제 3 외부 전자 장치
컨텐츠 화면 디스플레이 O O X X O X X
사용자 화면 디스플레이 O X X O X X
객체의 자세 정보 및/또는 피드백 정보 오디오 형태로 출력 O O X O O X O
다른 동작으로 전환 입력 수신 X O O O O O O
사용자의 자세 정보 생성 X O X X O X X
사용자의 생체 정보 측정 X X O X X O X
사용자의 동작 정보 측정 X X O X X O X
사용자의 생체 정보 및/또는 동작 정보 디스플레이 O O O X O O X
표 2를 참조하면 'O : 해당 기능을 제공, X : 해당 기능을 제공하지 않음, △ : 조건에 따라 해당 기능을 제공할 수 있음'을 의미한다.일 실시예에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300), 제 1 사용자의 전자 장치, 제 2 사용자의 전자 장치 중 어느 하나에 컨텐츠 화면(610)을 디스플레이하도록 제어할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300), 제 1 사용자의 전자 장치, 제 2 사용자의 전자 장치 중 어느 하나에 사용자 화면(620)을 디스플레이하도록 제어할 수 있다. 일 실시예에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300)에 제 1 사용자의 전자 장치에 구비된 카메라 및/또는 제 2 사용자의 전자 장치에 구비된 카메라로부터 획득한 제 1 사용자 및/또는 제 2 사용자의 이미지가 포함된 사용자 화면(예 : 도 5d의 사용자 화면(620))을 디스플레이 하도록 제어할 수 있다. 또 다른 실시예에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300)에 제 1 사용자의 전자 장치로부터 획득한 제 1 사용자의 이미지가 포함된 제 1 사용자 화면(예 : 도 5f의 제 1 사용자 화면(620)) 및 제 2 사용자의 전자 장치로부터 획득한 제 2 사용자의 이미지가 포함된 제 2 사용자 화면(예 : 도 5f의 제 2 사용자 화면(630))중에 적어도 하나를 디스플레이 하거나, 모두 디스플레이 하지 않도록 제어할 수 있다.
일 실시예에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300), 제 1 사용자의 전자 장치, 제 2 사용자의 전자 장치, 제 1 사용자의 제 3 전자 장치, 제 2 사용자의 제 3 전자 장치 중 어느 하나에 컨텐츠 내의 객체의 자세 정보 및/또는 컨텐츠 내의 객체의 자세 정보와 사용자 자세 정보 비교에 따른 피드백 정보를 오디오 형태로 출력하도록 제어할 수 있다. 일 실시예에 따르면, 프로세서(250)는 객체의 자세 정보를 제 1 외부 전자 장치(300), 제 1 사용자의 전자 장치, 제 2 사용자의 전자 장치 중 어느 하나에서 오디오 형태로 출력하도록 제어할 수 있다. 일 실시예에 따르면, 프로세서(250)는 제 1 사용자에 대한 제 1 피드백 정보를 제 1 사용자의 제 3 전자 장치에, 제 2 사용자에 대한 제 2 피드백 정보를 제 2 사용자의 제 3 전자 장치에 오디오 형태로 출력하도록 제어할 수 있다. 예를 들어, 프로세서(250)는 제 1 사용자와 제 2 사용자가 동시에 사용하고 있는 장치(예 : 제 1 외부 전자 장치(300) 및/또는 전자 장치(200))는 공용 장치로 분류하여 객체의 자세 정보를 오디오 형태로 출력하도록 하고, 제 1 사용자와 제 2 사용자가 각각 사용하고 있는 장치(예 : 제 1 사용자의 전자 장치, 제 3 외부 전자 장치 및/또는 제 2 사용자의 전자 장치, 제 3 외부 전자 장치)는 개인 장치로 분류하여 제 1 피드백 정보를 제 1 사용자의 개인 전자 장치(예 : 제 1 사용자의 전자 장치 및/또는 제 1 사용자의 제 3 외부 전자 장치)에서 제 2 피드백 정보를 제 2 사용자의 개인 전자 장치(예 : 제 2 사용자의 전자 장치 및/또는 제 2 사용자의 제 3 외부 전자 장치)에서 오디오 형태로 출력하도록 각 장치들을 제어할 수 있다. 예를 들어, 전자 장치(200)가 공용 장치로 분류되는 경우는 전자 장치(200)가 컨텐츠 화면을 디스플레이 하는 경우를 포함할 수 있고, 전자 장치(200)가 개인 장치로 분류되는 경우는 제 1 외부 전자 장치(300)가 컨텐츠 화면을 디스플레이 하는 경우를 포함할 수 있다.
일 실시예에 따르면, 프로세서(250)는 제 1 사용자의 전자 장치, 제 2 사용자의 전자 장치, 제 1 사용자의 제 2 외부 전자 장치, 제 2 사용자의 제 2 외부 전자 장치, 제 1 사용자의 제 3 외부 전자 장치, 제 2 사용자의 제 3 외부 전자 장치 중 어느 하나로부터 컨텐츠에서 출력 중인 동작을 컨텐츠 내의 다른 동작으로 전환하도록 하는 사용자의 동작 전환 입력을 수신할 수 있다. 일 실시예에 따르면, 상기 모든 장치로부터 입력을 수신하거나 및/또는 상기 장치 중 미리 설정된 장치로부터만 입력을 수신할 수 있다. 상기 입력을 수신할 수 있는 미리 설정된 장치는 사용자에 의하여 설정될 수 있다.
일 실시예에 따르면, 프로세서(250)는 제 1 사용자의 전자 장치 및/또는 제 2 사용자의 전자 장치가 제 1 사용자 및/또는 제 2 사용자의 자세 정보를 생성하도록 제어할 수 있다. 일 실시예에 따르면, 제 1 사용자의 전자 장치 및 제 2 사용자의 전자 장치를 동시에 사용함에 대응하여, 프로세서(250)는 제 1 사용자의 전자 장치가 제 1 사용자의 전자 장치에 구비된 카메라가 촬영한 화면에 포함된 제 1 사용자의 자세 정보를 생성하고, 제 2 사용자의 전자 장치가 제 2 사용자의 전자 장치에 구비된 카메라가 촬영한 화면에 포함된 제 2 사용자의 자세 정보를 생성하도록 제 1 사용자의 전자 장치 및/또는 제 2 사용자의 전자 장치를 제어할 수 있다. 다른 실시예에 따르면, 프로세서(250)는, 제 1 사용자의 전자 장치만을 사용함에 대응하여, 제 1 사용자의 전자 장치가 제 1 사용자의 전자 장치에 구비된 카메라(270)가 촬영한 화면에 포함된 제 1 사용자 및/또는 제 2 사용자의 자세 정보를 각각 생성하도록 제 1 사용자의 전자 장치를 제어할 수 있다.
일 실시예에 따르면, 프로세서(250)는 제 1 사용자의 제 2 외부 전자 장치가측정한 제 1 사용자의 생체 정보 및/또는 동작 정보 및/또는 제 2 사용자의 제 2 외부 전자 장치가 측정한 제 2 사용자의 생체 정보 및/또는 동작 정보를 수신할 수 있다.
일 실시예에 따르면, 프로세서(250)는 제 1 외부 전자 장치(300), 제 1 사용자의 전자 장치, 제 2 사용자의 전자 장치 중 적어도 어느 하나에서 제 1 사용자 및/또는 제 2 사용자의 생체 정보(예 : 심박수 및/또는 칼로리) 및/또는 동작 정보(예 : 동작 횟수 및/또는 동작 시간)를 디스플레이하도록 제어할 수 있다. 또한, 프로세서(250)는 제 1 사용자의 제 2 외부 전자 장치에 제 1 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하고, 제 2 사용자의 제 2 외부 전자 장치에 제 2 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 제어할 수 있다. 예를 들어, 프로세서(250)는 제 1 사용자 및/또는 제 2 사용자의 생체 정보 및/또는 동작 정보를 제 1 사용자 화면(620) 및/또는 제 2 사용자 화면(630)에 포함하는 형태로 제 1 외부 전자 장치(300), 제 1 사용자의 전자 장치, 제 2 사용자의 전자 장치 중 어느 하나에 디스플레이하도록 상기 장치 중 어느 하나를 제어할 수 있거나 및/또는 제 1 사용자의 제 2 외부 전자 장치 및/또는 제 2 사용자의 제 2 외부 전자 장치 상에 텍스트, 아이콘과 같은 형태로 디스플레이하도록 제 1 사용자의 제 2 외부 전자 장치 및/또는 제 2 사용자의 제 2 외부 전자 장치를 제어할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 컨텐츠 화면(예 : 도 5a의 컨텐츠화면(610)) 및/또는 사용자 화면(예 : 도 5c의 사용자 화면(620))을 전자 장치(예 : 도 2의 전자 장치(200))의 디스플레이(예 : 도 2의 디스플레이(220)) 상에 디스플레이하도록 제어하거나, 디스플레이를 포함하는 외부 전자 장치(예 : 도 4 의 제 2 외부 장치(300))에 디스플레이하도록 제어할 수 있다.
도 5a는, 본 문서에 기재된 특정 실시예들에 따른, 컨텐츠 화면(610)의 예시를 도시한 도면이다.
특정 실시예들에 따르면, 프로세서(250)는 메모리(예 : 도2의 메모리(280))에 저장된 컨텐츠의 이미지 정보를 포함하는 컨텐츠 화면(610)을 디스플레이 할 수 있다. 일 실시예에 따르면, 컨텐츠는 외부 미디어 소스로부터 획득한 다양한 영상(예 : 홈트레이닝을 위한 운동 영상)을 포함할 수 있다.
특정 실시예들에 따르면, 컨텐츠 화면(610)은 컨텐츠 내에서 동작을 수행하는 객체(611)(예 : 운동을 수행하는 공유 온라인 비디오 내의 트레이너)를 포함할 수 있다. 일 실시예에 따르면, 프로세서(250)는 컨텐츠 내에서 배경 영역과 객체(611)를 구분할 수 있다. 프로세서(250)는 객체(611)의 이미지 정보를 분석하여, 객체가 수행하는 동작의 구간 구분, 동작의 명칭을 포함하는 객체의 동작 정보 및/또는 동작을 수행하는 객체의 신체의 각 일부의 상대적인 위치 정보를 포함하는 객체의 자세 정보를 생성할 수 있다. 또한, 프로세서(250)는 객체의 자세 정보와 사용자의 자세 정보와 비교하여 피드백 정보를 생성할 수 있다.
프로세서(250)는 객체의 동작 정보를 다양한 형태로 가공하여 컨텐츠 화면(610)에 표시할 수 있다. 예를 들어, 프로세서(250)는 객체의 동작 정보를 텍스트(616) 및/또는 블록 바(615) 형태로 컨텐츠 화면(610)에 표시할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 객체의 동작 정보에 기초하여 컨텐츠의 동작 구간을 구분하여 구간 정보를 생성할 수 있다. 예를 들어, 프로세서(250)는 객체(611)가 제 1 동작(예 : 런지 동작)을 수행하는 구간을 제 1 구간으로 구분하고, 객체(611)가 제 2 동작(예 : 스쿼트 동작)을 수행하는 구간을 제 2 구간으로 구분할 수 있다.
프로세서(250)는 컨텐츠 내에서 해당하는 각 구간의 시작 위치, 종료 위치, 구간의 길이 정보를 각 구간의 구간 정보로 생성할 수 있다. 일 실시예에 따르면, 프로세서(250)는 구간 정보를 블록 바(615) 형태로 컨텐츠 화면(610)에 표시할 수 있다. 프로세서(250)는, 제 1 구간(예 : 런지 동작을 수행하는 구간)의 구간 정보 및 제 2 구간(예 : 스쿼트 동작을 수행하는 구간)의 구간 정보를 다르게 디스플레이할 수 있다. 예를 들어, 프로세서(250)는 컨텐츠를 구성하는 구간별 색깔을 구분하여 블록 바(615)를 표시할 수 있다. 또한, 프로세서(250)는 현재 진행 중인 제 1 동작 구간은 다른 블록 바에 비하여 더 두꺼운 블록 바(예 : 도 5a의 블록 바(615) 중 좌측에서 4번째 블록) 형태로 표시할 수 있다.
일 실시예에 따르면, 프로세서(250)는 객체의 동작 정보에 기초하여 동작의 진행 정도를 지시하는 정보를 컨텐츠 화면(610)에 표시할 수 있다. 예를 들어, 프로세서(250)는 현재 진행 중인 제 1 동작 구간에서, 현재 동작의 진행 위치를 블록 바(615)에 표시할 수 있다. 또 다른 예시로는, 프로세서(250)는 제 1 동작 구간에서, 남은 동작 시간을 텍스트(616)로 컨텐츠 화면(610)에 표시할 수 있다.
일 실시예에 따르면, 프로세서(250)는 컨텐츠의 유형(예 : 컨텐츠 내 운동의 난이도, 종류) 및 동작의 유형(예 : 동작의 난이도, 종류)에 따라 구간 정보를 다양하게 활용하여 컨텐츠를 디스플레이할 수 있다. 예를 들어, 제 1 컨텐츠 유형(예 : 난이도가 낮은 초보자 운동)인 경우, 프로세서(250)는 제 1 구간에서 제 1 동작(예 : Jumping Jack)을 30초 동안 디스플레이하고, 제 2 구간에서 제 2 동작(예 : Walk Down to Plank)을 30초 동안 디스플레이하고, 이후 다시 상기 제 1 동작과 상기 제 2 동작을 이어서 다시 디스플레이하고, 이후 30초간 휴식할 수 있도록 컨텐츠의 디스플레이를 중지하는 것과 같이 동작의 구간 정보를 활용하여 컨텐츠를 디스플레이할 수 있다.
다른 실시 예로, 제 2 컨텐츠 유형(예 : 난이도가 높은 전문가 운동)인 경우, 프로세서(250)는 제 1 구간에서 제 1 동작(예 : Steam Engines)을 60초 동안 디스플레이하고, 제 2 구간에서 제 2 동작(예 : Squats)을 60초 동안 디스플레이하고, 제 3 구간에서 제 3 운동(예 : Burpees)을 60초 동안 디스플레이하고, 이후 20초간 휴식할 수 있도록 컨텐츠의 디스플레이를 중지하는 것과 같이 동작의 구간 정보를 활용하여 컨텐츠를 디스플레이할 수 있다.
일 실시예에 따르면, 프로세서(250)는 동작의 종류에 따라 하나의 구간 내에서 여러 단계(Steps)의 연속 동작으로 이루어진 동작을 세부 구분동작으로 컨텐츠를 디스플레이할 수 있다. 일 실시예로, 제 3 컨텐츠 유형(예 : 요가)인 경우, 프로세서(250)는 제 1 구간은 제 1 동작(예 : Side Rotation)을 60초 동안 제 1 세부 구분 동작(예 : To_Left) 및 제 2 세부 구분 동작(To_Right)으로 나누어 디스플레이하고, 제 2 구간에서 제 2 동작(예 : Cat cow)을 60초 동안 디스플레이하고, 제 3 구간에서 제 3 동작(예 : Balancing Table)를 90초 동안 제 3 세부 구분동작(예 : To_Left) 및 제 4 세부 구분동작(예 : To_Right)으로 나누어 디스플레이하는 것과 같이 동작의 구간 정보를 활용하여 컨텐츠를 디스플레이할 수 있다.
일 실시예에 따르면, 프로세서(250)는 동작의 종류에 따라(예 : 앉아서 수행하는 동작), 컨텐츠 화면(610)을 디스플레이 할 수 있다. 예를 들어, 상반신 수행하는 동작에서는 객체의 상반신 영역에 대해서 컨텐츠를 디스플레이 하고, 객체의 상반신 동작에 대해서 객체의 자세 정보를 제공할 수 있다.
일 실시예에 따르면, 프로세서(250)는 컨텐츠의 유형 및/또는 동작의 유형에 따라 동작의 반복 횟수를 구간 정보로 생성할 수 있다. 예를 들어, 제 4 컨텐츠(예 :춤)인 경우, 제 1 구간에서 제 1 동작(예 : 스텝)을 2회 반복하고, 제 2 구간에서 제 2 동작(예 : 팔꿈치 리듬)을 3회 반복하고, 제 3 구간에서 제 3 동작(예 : 백스텝)을 2회 반복하는 정보를 구간 정보로 생성할 수 있고, 상기 구간 정보에 따라 제 4 컨텐츠를 디스플레이할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 객체의 동작 정보에 기초하여 동작 명칭을 판단할 수 있다. 일 실시예에 따르면, 프로세서(250)는 객체(611)가 제 1 동작을 수행함에 대응하여, 제 1 동작의 일반적인 동작 명칭(예 : 점핑, 런지, 와이드 스커트, 버핏 테스트, 크런치, 댄스)을 매칭할 수 있다. 프로세서(250)는 동작 명칭을 텍스트(616)로 컨텐츠 화면(610)에 표시할 수 있다.
도 5b는, 본 문서에 기재된 특정 실시예들에 따른, 컨텐츠 화면의 예시를 도시한 도면이다. 도 5b의 예시는, 운동과 관련된 동작을 일부 구간에서만 포함하는 컨텐츠에 대한 컨텐츠 화면(610)의 예시를 도시한 도면이다.
특정 실시예들에 따르면, 프로세서(250)는 메모리(280)에 저장된 컨텐츠의 이미지 정보를 포함하는 컨텐츠 화면(610)을 디스플레이 할 수 있다. 일 실시예에 따르면, 컨텐츠는 외부 미디어 소스로부터 획득한 다양한 영상(예 : 운동 구간을 포함하는 영화, 드라마)을 포함할 수 있다.
특정 실시예들에 따르면, 컨텐츠 화면(610)은 컨텐츠 내에서 동작(예 : 재즈 댄스 동작)을 수행하는 제 1 객체(611) 및/또는 제 2 객체(612)를 포함할 수 있다. 일 실시예에 따르면, 프로세서(250)는 컨텐츠 내에서 배경 영역과 제 1 객체(611) 및/또는 제 2 객체(612)를 구분할 수 있다. 프로세서(250)는 제 1 객체(611) 및/또는 제 2 객체(612)의 이미지 정보를 분석하여, 제 1 객체(611) 및/또는 제 2 객체(612) 각각의 동작 정보 및/또는 제 1 객체(611) 및/또는 제 2 객체(612) 각각의 자세 정보를 생성할 수 있다.
프로세서(250)는 객체의 동작 정보를 다양한 형태로 가공하여 컨텐츠 화면(610)에 표시할 수 있다. 예를 들어, 프로세서(250)는 동작 정보를 텍스트(616) 및/또는 블록 바(615) 형태로 컨텐츠 화면(610)에 표시할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 객체의 동작 정보에 기초하여 컨텐츠의 동작 구간을 구분하여 구간 정보를 생성할 수 있다. 일 실시예에 따르면, 프로세서(250)는 객체의 동작 정보에 기초하여 컨텐츠가 지정된 분야와 관련된 동작(예 : 운동, 춤추기, 요리)을 수행하는 구간을 구분할 수 있다. 예를 들어, 프로세서(250)는 제 1 객체(611) 및/또는 제 2 객체(612)가 제 1 동작을 수행하는 구간을 제 1 구간으로 구분하고, 제 1 객체(611) 및/또는 제 2 객체(612)가 제 2 동작을 수행하는 구간을 제 2 구간으로 구분할 수 있다. 프로세서(250)는 컨텐츠 내에서 해당하는 각 구간의 시작 위치, 종료 위치, 구간의 길이 정보를 각 구간의 구간 정보로 생성할 수 있다. 일 실시예에 따르면, 프로세서(250)는 구간 정보를 블록 바(615) 형태로 컨텐츠 화면(610)에 표시할 수 있다. 프로세서(250)는, 제 1 구간의 구간 정보, 제 2 구간의 구간 정보 및 동작을 포함하지 않는 구간의 구간 정보를 다르게 디스플레이할 수 있다. 예를 들어, 프로세서(250)는, 지정된 분야의 동작(예 : 운동, 춤추기, 요리)을 일부 구간에서만 포함하는 컨텐츠에 대응하여, 지정된 분야의 동작을 수행하는 제 1 구간 및/또는 제 2 구간에 대하여 구간별 색깔을 구분하여 블록 바(615)를 표시할 수 있고, 지정된 분야의 동작을 포함하지 않는 구간은 블록 바(615)를 표시하지 않을 수 있다. 또한, 프로세서(250)는 현재 진행 중인 제 1 동작 구간은 다른 블록 바에 비하여 더 두꺼운 블록 바 형태로 표시할 수 있다.
도 5c는, 본 문서에 기재된 특정 실시예들에 따른, 사용자가 포함된 사용자 화면(620)의 예시를 도시한 도면이다.
특정 실시예들에 따르면, 프로세서(250)는 카메라를 통하여 사용자(621)가 포함된 이미지를 획득할 수 있다.
일 실시에에 따르면, 프로세서(250)가 사용자가 포함된 이미지를 획득하는 카메라는 전자 장치(200)에 구비된 카메라(예 : 도 2의 카메라(270))를 포함할 수 있다.
일 실시예에 따르면, 프로세서(250)가 사용자가 포함된 이미지를 획득하는 카메라는 외부 전자 장치에 구비된 카메라(예 : 웹캠, 캠코더, 무선 카메라)를 포함할 수 있고, 외부 전자 장치에 구비된 카메라는 전자 장치(200)에 유선 및/또는 무선으로 연결될 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 사용자 화면(620) 내에서 배경 영역과 사용자(621)를 구분할 수 있다. 프로세서(250)는 사용자(621)의 이미지 정보를 분석하여, 사용자의 자세 정보를 생성할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 컨텐츠 내의 객체의 자세 정보 및사용자의 자세 정보를 비교하고, 비교 결과에 기반하여 피드백 정보를 생성할 수 있다. 일 실시예에 따르면, 프로세서(250)는 피드백 정보에 기반하여 객체의 자세 정보와 사용자의 자세 정보의 유사도를 확인하고, 유사도에 기반하여 사용자(621)의 자세를 적어도 두 개 이상의 영역으로 구분할 수 있다. 예를 들면, 프로세서(250)는, 유사도에 기반하여, 사용자(621)의 자세를 일치 영역(예: 유사도가 제 1 값 이상인 영역), 유사 영역(예: 유사도가, 제 1 값 미만이고, 제 2 값 이상인 영역) 및/또는 비유사 영역(예: 유사도가, 제 2 값 미만인 영역)으로 구분할 수 있다. 프로세서(250)는, 구분된 영역을 시각화하고, 시각화된 영역을 디스플레이 상에 디스플레이할 수 있다. 프로세서(250)는, 시각화된 영역을 사용자 화면(620) 상에 오버레이(overlay)하는 방식으로 디스플레이할 수 있다.
프로세서(250)는 피드백 정보를 다양한 시각화된 형태를 통해 사용자 화면(620)에 표시할 수 있다. 일 실시예에 따르면, 프로세서(250)는 피드백 정보를 노드 및 선을 이용하여 추상적 도형 형태로 시각화한 가이드 도형(622)으로 표시할 수 있다. 예를 들어, 프로세서(250)는 가이드 도형(622)을 노드 및/또는 선으로 구분하여 표시할 수 있다. 노드는 신체의 적어도 회전 부분(예: 관절) 및/또는 신체의 말단 영역(예: 머리)을 나타낼 수 있다. 선은 사지와 같이 노드를 연결하는 적어도 일반적으로 유연성이 없는 부분을 나타낼 수 있다. 프로세서(250)는 사용자(621)의 신체의 일부(예 : 손목, 팔꿈치, 머리, 골반, 오금과 같은 관절)에 대응되도록 노드를 표시할 수 있고, 노드 사이를 연결하는 선을 표시할 수 있다. 일 실시예에 따르면, 프로세서(250)는 유사도에 기반하여 사용자(621)의 자세를 일치 영역, 유사 영역 및 비유사 영역으로 구분한 정보에 대응하여, 노드 사이를 연결하는 선의 색깔을 다르게 표시할 수 있다(예 : 일치 영역은 제 1 색 선, 유사 영역은 제 2 색 선, 비유사 영역은 제 3 색 선). 이에 따라, 사용자는 컨텐츠 내의 객체의 자세와 다른 신체의 부분을 직관적으로 파악할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 통신 모듈(290)이 외부 장치(예 : 제 2 외부 장치(400))로부터 수신한 사용자의 생체 정보(예 : 심박수 및/또는 칼로리)및 동작 정보(예 : 움직임)를 획득할 수 있다. 프로세서(250)는 사용자의 생체 정보(623) 및/또는 동작 정보(624)를 사용자 화면(620)에 표시할 수 있다. 예를 들어, 프로세서(250)는 사용자의 심박수 및/또는 칼로리를 포함하는 생체 정보(623)를 사용자 화면(620) 상에 표시할 수 있고, 사용자의 동작 정보(예: 동작 횟수)(624)를 사용자 화면 상에 표시할 수 있다.
도 5d는, 본 문서에 기재된 특정 실시예들에 따른, 복수의 사용자가 포함된 사용자 화면(620)의 예시를 도시한 도면이다.
특정 실시예들에 따르면, 프로세서(250)는 카메라를 통하여 제 1 사용자(621) 및/또는 제 2 사용자(631)가 포함된 이미지를 획득할 수 있다.
일 실시에에 따르면, 프로세서(250)가 사용자가 포함된 이미지를 획득하는 카메라는 전자 장치(200)에 구비된 카메라(예 : 도 2의 카메라(270))를 포함할 수 있다.
일 실시예에 따르면, 프로세서(250)가 사용자가 포함된 이미지를 획득하는 카메라는 외부 전자 장치에 구비된 카메라(예 : 웹캠, 캠코더, 무선 카메라)를 포함할 수 있고, 외부 전자 장치에 구비된 카메라는 전자 장치(200)에 유선 및/또는 무선으로 연결될 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 사용자 화면(620) 내에서 배경 영역과 제 1 사용자(621) 및/또는 제 2 사용자(631)를 구분할 수 있다. 프로세서(250)는 제 1 사용자(621) 및/또는 제 2 사용자(631)의 이미지 정보를 분석하여, 제 1 사용자 및/또는 제 2 사용자의 자세 정보를 각각 생성할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 제 1 사용자(621) 및/또는 제 2 사용자(631) 각각의 자세 정보와 컨텐츠 내의 객체의 자세 정보를 비교하고, 비교 결과에 기반하여 제 1 사용자(621)의 제 1 피드백 정보 및/또는 제 2 사용자(631)의 제 2 피드백 정보를 각각 생성할 수 있다. 일 실시예에 따르면, 프로세서(250)는 제 1 피드백 정보 및/또는 제 2 피드백 정보에 기반하여 객체의 자세 정보와 제 1 사용자(621) 및/또는 제 2 사용자(631) 각각의 자세 정보의 유사도를 확인하고, 각 유사도에 기반하여 제 1 사용자(621) 및/또는 제 2 사용자(631)의 자세를 적어도 두 개 이상의 영역으로 구분할 수 있다. 예를 들면, 프로세서(250)는, 유사도에 기반하여, 제 1 사용자(621) 및/또는 제 2 사용자(631)의 자세를 일치 영역(예 : 유사도가 제 1 값 이상인 영역), 유사 영역(예 : 유사도가, 제 1 값 미만이고, 제 2 값 이상인 영역) 및/또는 비유사 영역(예: 유사도가, 제 2 값 미만인 영역)으로 구분할 수 있다. 프로세서(250)는, 구분된 영역을 시각화하고, 시각화된 영역을 디스플레이 상에 디스플레이할 수 있다. 프로세서(250)는, 시각화된 영역을 사용자 화면(620) 상에 제 1 사용자(621)의 이미지 및/또는 제 2 사용자(631)의 이미지에 각각 오버 레이(overlay)하는 방식으로 디스플레이할 수 있다. 프로세서(250)는 제 1 피드백 정보 및/또는 제 2 피드백 정보를 다양한 시각화된 형태를 통해 사용자 화면(620)에 표시할 수 있다. 일 실시예에 따르면, 프로세서(250)는 제 1 피드백 정보 및/또는 제 2 피드백 정보를 도형 형태로 시각화한 제 1 가이드 도형(622) 및/또는 제 2 가이드 도형(632)으로 각각 표시할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 통신 모듈(290)이 제 1 외부 장치(예 : 제 2 외부 장치(400))및/또는 제 2 외부 장치(예 : 제 2 외부 장치(400))로부터 수신한 제 1 사용자(621) 및/또는 제 2 사용자(631)의 생체 정보(심박수 및/또는 칼로리) 및/또는 동작 정보를 획득할 수 있다. 프로세서(250)는 제 1 사용자의 생체 정보(623) 및/또는 동작 정보(624) 및/또는 제 2 사용자의 생체 정보(633) 및/또는 동작 정보(634)를 사용자 화면(620)에 표시할 수 있다. 예를 들어, 프로세서(250)는 제 1 사용자의 심박수 및/또는 칼로리를 포함하는 제 1 사용자의 생체 정보(623) 및/또는 제 2 사용자의 심박수 및/또는 칼로리를 포함하는 제 2 사용자의 생체 정보(633)를 사용자 화면(620) 상에 표시할 수 있고, 제 1 사용자의 동작 정보(예: 동작 횟수)(624) 및/또는 제 2 사용자의 동작 정보(예: 동작 횟수)(634)를 사용자 화면 상에 표시할 수 있다.
도 5e 및 5f는 특정 실시예들에 따른, 컨텐츠 화면과 사용자 화면을 디스플레이하는 예시를 도시한 도면이다.
특정 실시예들에 따르면, 프로세서(250)는 컨텐츠 화면(610) 및/또는 사용자 화면(620)을 전자 장치(200)의 디스플레이(220)에 디스플레이하도록 제어하거나, 디스플레이를 포함하는 외부 전자 장치(예 : 도 4 의 제 2 외부 장치(300))에 디스플레이하도록 제어할 수 있다.
도 5e는 사용자 화면(620)이 하나(예 : 사용자를 촬영하는 카메라가 하나인 경우)임에 대응하여, 프로세서(250)가 컨텐츠 화면(610)과 사용자 화면(620)을 전자 장치(200)의 디스플레이(220) 및/또는 외부 전자 장치(300)의 디스플레이에 디스플레이하는 예시를 도시한 도면이다. 프로세서(250)는 컨텐츠 화면(610)과 사용자 화면(620)을 하나의 디스플레이에서 디스플레이하도록 제어할 수 있다. 일 실시예에 따르면, 컨텐츠 화면(610) 및/또는 사용자 화면(620)의 속성(예: 크기, 비율, 위치)는 다양한 방식에 의해 설정될 수 있다. 예를 들면, 프로세서(250)는, 디스플레이(220)의 속성(예: 디스플레이(220)의 해상도(resolution), 디스플레이(220)의 종횡비(aspect ratio))에 기반하여 컨텐츠 화면(610) 및/또는 사용자 화면(620)의 속성을 결정할 수 있다. 다른 예를 들면, 프로세서(250)는, 컨텐츠 화면(610) 및/또는 사용자 화면(620)의 속성을 설정하는 사용자 입력에 기반하여, 컨텐츠 화면(610) 및/또는 사용자 화면(620)의 속성을 설정할 수도 있다.
도 5f는 제 1 사용자를 포함하는 제 1 사용자 화면(620) 및/또는 제 2 사용자를 포함하는 제 2 사용자 화면(630)이 각각 있음(예 : 사용자를 촬영하는 카메라를 포함하는 전자 장치가 복수인 경우)에 대응하여, 프로세서(250)가 컨텐츠 화면(610), 제 1 사용자 화면(620) 및/또는 제 2 사용자 화면(630)을 전자 장치(200)의 디스플레이(220) 및/또는 외부 전자 장치(300)의 디스플레이에 디스플레이하는 화면 구성의 예시를 도시한 도면이다.
프로세서(250)는 컨텐츠 화면(610), 제 1 사용자 화면(620) 및/또는 제 2 사용자 화면(630)을 하나의 디스플레이에서 디스플레이하도록 제어할 수 있다. 일 실시예에 따르면, 컨텐츠 화면(610), 제 1 사용자 화면(620) 및/또는 제 2 사용자 화면(630)의 속성(예: 크기, 비율, 위치)는 다양한 방식에 의해 설정될 수 있다. 예를 들면, 프로세서(250)는, 디스플레이(220)의 속성(예: 디스플레이(220)의 해상도(resolution), 디스플레이(220)의 종횡비(aspect ratio))에 기반하여 컨텐츠 화면(610), 제 1 사용자 화면(620) 및/또는 제 2 사용자 화면(630)의 속성을 결정할 수 있다. 다른 예를 들면, 프로세서(250)는, 컨텐츠 화면(610), 제 1 사용자 화면(620) 및/또는 제 2 사용자 화면(630)의 속성을 설정하는 사용자 입력에 기반하여, 컨텐츠 화면(610), 제 1 사용자 화면(620) 및/또는 제 2 사용자 화면(630)의 속성을 설정할 수도 있다.
도 6은 특정 실시예들에 따른, 전자 장치(200)와 연결되는 제 2 외부 전자 장치(400)의 예시를 도시한 도면이다. 특정 실시예들에 따르면, 제 2 외부 전자 장치(400)는 전면에 다양한 정보를 표시하는 디스플레이(410)를 포함할 수 있다.
특정 실시예들에 따르면, 제 2 외부 전자 장치(400)는 디스플레이(410)에 제 1 화면(411) 및/또는 제 2 화면(412)을 디스플레이 할 수 있다. 일 실시예에 따르면, 제 2 외부 전자 장치(400)는, 제 1 화면(411)을 디스플레이하는 상태에서, 제 1 화면(411)에서 제 2 화면(412)으로 전환을 요청하는 사용자 입력 (예 : 스와이프 동작)에 대응하여, 제 2 화면(412)을 디스플레이하는 상태로 전환할 수 있다.
특정 실시예들에 따르면, 제 2 외부 전자 장치(400)는 제 1 화면(411)에 전자 장치(200)로부터 수신한 정보를 디스플레이할 수 있다. 일 실시예에 따르면, 전자 장치(예 : 도 2 의 전자 장치(200))로부터 수신한 객체의 동작 정보(예 : 동작 명칭, 구간 정보)의 다양한 형태(예 : 텍스트, 아이콘)를 디스플레이할 수 있다.
특정 실시예들에 따르면, 제 2 외부 전자 장치(400)는 제 2 외부 전자 장치(200)가 측정한 사용자의 생체 정보(예 : 심박수 및/또는 칼로리) 및/또는 동작 정보(예 : 동작 횟수, 동작 시간)의 다양한 형태(예 : 텍스트, 아이콘)를, 제 2 화면(412) 상에 디스플레이할 수 있다.
도 7a, 7b 및 7c는 특정 실시예들에 따른 프로세서가 다양한 정보를 외부 전자 장치에서 출력하도록 외부 전자 장치를 제어하는 예시를 도시한 도면이다.
도 7a는 한 명의사용자를 촬영하는 하나의 전자 장치와, 복수의 사용자가 각각 착용하는 외부 전자 장치가 있음을 감지한 경우에, 프로세서가 다양한 정보를 외부 전자 장치에 출력하도록 제어하는 예시를 도시한 도면이다.
도 7a의 실시예에 따르면, 프로세서(250)는, 복수의 사용자가 있음에 대응하여, 다양한 정보를 출력하도록 전자 장치(200), 제 1 외부 전자 장치(300), 제 1 사용자의 제 2 외부 전자 장치(401), 제 1 사용자의 제 3 외부 전자 장치(501), 제 2 사용자의 제 2 외부 전자 장치(402) 및/또는 제 2 사용자의 제 3 외부 전자 장치(502)를 제어할 수 있다.
프로세서(250)는, 제 1 외부 전자 장치(300)가 컨텐츠 화면(610)및/또는 제 1 사용자를 포함하고, 제 1 사용자의 생체 정보 및/또는 동작 정보를 포함하는 사용자 화면(620)을 디스플레이하고, 객체의 자세 정보를 오디오 형태(예 : 객체의 자세 가이드 음성으로 제공, “허리를 곧게 펴고, 무릎을 바닥에 닿지 않도록 하면, 더욱 효과적인 점핑 런지를 할 수 있습니다.”)로 출력하도록 제어할 수 있다.
프로세서(250)는, 제 1 사용자의 제 2 외부 전자 장치(401)로부터 제 1 사용자의 생체 정보(예 : 심박수 82, 소모 칼로리 254) 및/또는 동작 정보(예 : 동작 횟수 2회)를 획득할 수 있고, 제 1 사용자의 제 2 외부 전자 장치(401)가 제 1 사용자의 생체 정보 및/또는 동작 정보를 디스플레이하도록 제 1 사용자의 제 2 외부 전자 장치(401)를 제어할 수 있다. 프로세서(250)는, 제 2 사용자의 제 2 외부 전자 장치(402)로부터 제 2 사용자의 생체 정보(예 : 심박수 110, 소모 칼로리 293) 및/또는 동작 정보(예 : 동작 횟수 0)를 획득할 수 있고, 제 2 사용자의 제 2 외부 전자 장치(402)가 제 2 사용자의 생체 정보 및/또는 동작 정보를 디스플레이 하도록 제 2 사용자의 제 2 외부 전자 장치(402)를 제어할 수 있다.
프로세서(250)는, 제 1 사용자의 제 2 외부 전자 장치(401)로부터 사용자의 동작 전환 입력을 획득할 수 있다. 제 1 사용자의 제 2 외부 전자 장치(401)로부터만 사용자의 동작 전환 입력을 획득하도록 설정된 경우, 프로세서(250)는 제 2 사용자의 제 2 외부 전자 장치(402)로부터 사용자의 동작 전환 입력이 있더라도, 동작을 전환하지 않을 수 있다.
프로세서(250)는, 제 1 사용자가 포함된 사용자 화면(620)에 대한 분석을 수행하고, 제 1 사용자의 자세에 대한 제 1 피드백 정보를 생성할 수 있다.
프로세서(250)는 제 1 사용자의 제 3 외부 전자 장치(501)가 제 1 사용자에 대한 제 1 피드백 정보를 오디오 형태(예 : 제 1 사용자에 맞춤형 피드백 정보 음성으로 제공, “오른 손은 바닥을 짚고 왼손은 등 뒤쪽으로 쭉 펴세요”)로 출력하도록 제어할 수 있다. 프로세서(250)는 제 2 사용자의 제 3 외부 전자 장치(502)가 제 2 사용자의 생체 정보 및/또는 동작 정보와 관련한 가이드를 오디오 형태(예 : 생체 정보에 기반한 음성 가이드, “적정 심박수가 유지되고 있습니다. 운동 강도를 높잉려면 동작을 조금 더 크게 해보세요”)로 출력하도록 제어할 수 있다.
도 7b는 복수의 사용자를 각각 촬영하는 복수의 전자 장치와, 복수의 사용자가 각각 착용하는 외부 전자 장치가 있는 경우에, 프로세서가 다양한 정보를 외부 전자 장치에 출력하도록 제어하는 예시를 도시한 도면이다 (단일 사용자보다는 도 7A에서와 같이).
도 7b의 실시예에 따르면, 프로세서(250)는, 복수의 사용자가 있음감지함에 대응하여, 다양한 정보를 출력하도록 전자 장치(미도시), 제 1 외부 전자 장치(300), 제 1 사용자의 제 2 외부 전자 장치(401), 제 1 사용자의 제 3 외부 전자 장치(501), 제 2 사용자의 제 2 외부 전자 장치(402), 제 2 사용자의 제 3 외부 전자 장치(502)를 제어할 수 있다.
프로세서(250)는, 제 1 외부 전자 장치(300)가 컨텐츠 화면(610), 제 1 사용자의 전자 장치가 촬영한 제 1 사용자의 이미지를 포함하고, 제 1 사용자의 생체 정보 및/또는 동작 정보를 포함하는 제 1 사용자 화면(620) 및/또는 제 2 사용자의 전자 장치가 촬영한 제 2 사용자의 이미지를 포함하고, 제 2 사용자의 생체 정보 및/또는 동작 정보를 포함하는 제 2 사용자 화면(630)을 디스플레이하고, 객체의 자세 정보를 오디오 형태(예 : 객체의 자세 가이드 음성으로 제공, “허리를 곧게 펴고, 무릎을 바닥에 닿지 않도록 하면, 더욱 효과적인 점핑 런지를 할 수 있습니다.”)로 출력하도록 제어할 수 있다.
프로세서(250)는, 제 1 사용자의 제 2 외부 전자 장치(401)로부터 제 1 사용자의 생체 정보(예 : 심박수 82, 소모 칼로리 254) 및/또는 동작 정보(예 : 동작 횟수 2회)를 획득할 수 있고, 제 1 사용자의 제 2 외부 전자 장치(401)가 제 1 사용자의 생체 정보 및/또는 동작 정보를 디스플레이 하도록 제 1 사용자의 제 2 외부 전자 장치(401)를 제어할 수 있다. 프로세서(250)는, 제 2 사용자의 제 2 외부 전자 장치(402)로부터 제 2 사용자의 생체 정보(예 : 심박수 110, 소모 칼로리 293) 및/또는 동작 정보(예 : 동작 횟수 0)를 획득할 수 있고, 제 2 사용자의 제 2 외부 전자 장치(402)가 제 2 사용자의 생체 정보 및/또는 동작 정보를 디스플레이 하도록 제 2 외부 전자 장치(402)를 제어할 수 있다.
프로세서(250)는, 제 1 사용자의 제 2 외부 전자 장치(401)로부터 사용자의 동작 전환 입력을 획득할 수 있다. 제 1 사용자의 제 2 외부 전자 장치(401)로부터만 사용자의 동작 전환 입력을 획득하도록 설정된 경우, 프로세서(250)는 제 2 사용자의 제 2 외부 전자 장치(402)로부터 사용자의 동작 전환 입력이 있더라도, 동작을 전환하지 않을 수 있다.
프로세서(250)는, 제 1 사용자 화면(620) 및/또는 제 2 사용자 화면(630)에 대한 분석을 수행하고, 제 1 사용자 화면(620) 내의 제 1 사용자의 자세에 대한 제 1 피드백 정보 및/또는 제 2 사용자 화면(630) 내의 제 2 사용자의 자세에 대한 제 2 피드백 정보를 생성할 수 있다.
프로세서(250)는, 제 1 피드백 정보 및/또는 제 2 피드백 정보를 출력하기 위한 외부 전자 장치를 선택할 수 있다. 일 실시예에 따르면, 프로세서(250)는, 제 1 피드백 정보에 대응하는 제 1 사용자가 착용하는 전자 장치(예: 제 3 외부 전자 장치(501))를 확인하고, 확인된 전자 장치를 제 1 피드백 정보를 출력할 전자 장치로 결정할 수 있다. 일 실시예에 따르면, 프로세서(250)는, 제 2 피드백 정보에 대응하는 제 2 사용자가 착용하는 전자 장치(예: 제 3 외부 전자 장치(502))를 확인하고, 확인된 전자 장치를 제 2 피드백 정보를 출력할 전자 장치로 결정할 수 있다. 예를 들어, 프로세서(250)는, 사용자 화면(620)에 대한 분석을 수행하고, 사용자 화면(620)에 포함된 객체의 일부(예: 제 1 사용자의 얼굴)와 메모리(예: 도 2의 메모리(280)) 상에 미리 저장된 객체의 식별 정보(예: 제 1 사용자의 얼굴)을 비교할 수 있다. 프로세서(250)는 미리 저장된 객체의 식별 정보와 일치하는 객체와 관련된 피드백 정보를 이전에 연결된 이력이 있는 전자 장치(예: 제 1 사용자의 제 3 외부 전자 장치(501))에 전송할 수도 있다. 프로세서(250)는, 미리 저장된 객체의 식별 정보와 일치하지 않는 객체(예 : 제 2 사용자)와 관련된 피드백 정보를 이전에 연결된 이력이 없는 전자 장치(예: 제 2 사용자의 제 3 외부 전자 장치(502))에 전송할 수도 있다.
프로세서(250)는, 제 1 피드백 정보 및/또는 제 2 피드백 정보를 출력하기 위한 외부 전자 장치를 선택할 수 있다. 일 실시예에 따르면, 프로세서(250)는, 제 1 피드백 정보에 대응하는 제 1 사용자가 착용하는 전자 장치(예: 제 3 외부 전자 장치(501))를 확인하고, 확인된 전자 장치를 제 1 피드백 정보를 출력할 전자 장치로 결정할 수 있다. 일 실시예에 따르면, 프로세서(250)는, 제 2 피드백 정보에 대응하는 제 2 사용자가 착용하는 전자 장치(예: 제 3 외부 전자 장치(502))를 확인하고, 확인된 전자 장치를 제 2 피드백 정보를 출력할 전자 장치로 결정할 수 있다. 예를 들어, 프로세서(250)는 제 1 피드백 정보를 제 1 사용자 화면(620)을 촬영한 제 1 사용자의 전자 장치와 연결된 이력이 있는 전자 장치(예 : 제 1 사용자의 제 3 외부 전자 장치(501))에 전송할 수 있다. 프로세서(250)는, 제 2 피드백 정보를 제 2 사용자 화면(630)을 촬영한 제 2사용자의 전자 장치와 연결된 이력이 있는 전자 장치(예 : 제 2 사용자의 제 3 외부 전자 장치(502))에 전송할 수 있다.
프로세서(250)는 제 1 사용자의 제 3 외부 전자 장치(501)가 제 1 사용자에 대한 제 1 피드백 정보를 오디오 형태(예 : 제 1 사용자에 대한 맞춤형 피드백 정보 음성으로 제공, “오른 손은 바닥을 짚고 왼손은 등 뒤쪽으로 쭉 펴세요”)로 출력하도록 제어할 수 있고, 제 2 사용자의 제 3 외부 전자 장치(502)가 제 2 사용자에 대한 제 2 피드백 정보를 오디오 형태(예 : 제 2 사용자에 대한 맞춤형 피드백 정보 음성으로 제공, “영상을 보고 바른 자세를 취하세요”)로 출력하도록 제어할 수 있다.
도 7c는 복수의 사용자를 촬영하는 하나의 전자 장치가 있고, 한 명의 사용자가 착용하는 외부 전자 장치가 있는 경우에, 프로세서가 다양한 정보를 전자 장치 및/또는 외부 전자 장치에 출력하도록 제어하는 예시를 도시한 도면이다.
도 7c의 실시예에 따르면, 프로세서(250)는, 복수의 사용자가 있음에 대응하여, 다양한 정보를 출력하도록 전자 장치(200), 제 1 외부 전자 장치(300), 제 1 사용자의 제 2 외부 전자 장치(401), 제 1 사용자의 제 3 외부 전자 장치(501)를 제어할 수 있다.
프로세서(250)는, 제 1 외부 전자 장치(300)가 컨텐츠 화면(610)을 디스플레이하고, 객체의 자세 정보를 오디오 형태(예 : 객체의 자세 가이드 음성으로 제공, “허리를 곧게 펴고, 무릎을 바닥에 닿지 않도록 하면, 더욱 효과적인 점핑 런지를 할 수 있습니다.”)로 출력하도록 제어할 수 있다.
프로세서(250)는, 전자 장치(200)가 촬영한 제 1 사용자 및 제 2 사용자를 포함하고, 제 1 사용자의 생체 정보 및/또는 동작 정보를 포함하는 사용자 화면(620)을 디스플레이하도록 전자 장치(200)를 제어할 수 있다.
프로세서(250)는, 제 1 사용자의 제 2 외부 전자 장치(401)로부터 제 1 사용자의 생체 정보(예 : 심박수 82, 소모 칼로리 254) 및/또는 동작 정보(예 : 동작 횟수 2회)를 획득할 수 있고, 제 1 사용자의 제 2 외부 전자 장치(401)가 제 1 사용자의 생체 정보 및/또는 동작 정보를 디스플레이 하도록 제 1 사용자의 제 2 외부 전자 장치(401)를 제어할 수 있다. 제 1 사용자의 제 2 외부 전자 장치(401)로부터 사용자의 동작 전환 입력을 획득할 수 있다.
프로세서(250)는, 제 1 사용자 및/또는 제 2 사용자가 포함된 사용자 화면(620)에 대한 분석을 수행하고, 제 1 사용자의 자세에 대한 제 1 피드백 정보 및/또는 제 2 사용자의 자세에 대한 제 2 피드백 정보를 생성할 수 있다.
프로세서(250)는, 제 1 피드백 정보 및/또는 제 2 피드백 정보를 출력하기 위한 외부 전자 장치를 선택할 수 있다.
일 실시예에 따르면, 프로세서(250)는, 제 1 피드백 정보에 대응하는 제 1 사용자가 착용하는 전자 장치(예: 제 3 외부 전자 장치(501))를 확인하고, 확인된 전자 장치를 제 1 피드백 정보를 출력할 전자 장치로 결정할 수 있다. 예를 들어, 프로세서(250)는, 사용자 화면(620)에 대한 분석을 수행하고, 사용자 화면(620)에 포함된 객체의 일부(예: 제 1 사용자의 얼굴)와 메모리(예: 도 2의 메모리(280)) 상에 미리 저장된 객체의 식별 정보(예: 제 1 사용자의 얼굴)을 비교할 수 있다. 프로세서(250)는 미리 저장된 객체의 식별 정보와 일치하는 객체와 관련된 피드백 정보를 이전에 연결된 이력이 있는 전자 장치(예: 제 1 사용자의 제 3 외부 전자 장치(501))에 전송할 수 있다.
프로세서(250)는 제 1 사용자의 제 3 외부 전자 장치(501)가 제 1 사용자에 대한 제 1 피드백 정보를 오디오 형태(예 : 제 1 사용자에 맞춤형 피드백 정보 음성으로 제공, “오른 손은 바닥을 짚고 왼손은 등 뒤쪽으로 쭉 펴세요”)로 출력하도록 제어할 수 있다.
도 8a, 8b, 8c, 8d 및 8e는, 본 문서에 개시된 특정 실시예들에 따른 전자 장치에 포함된 UI의 예시를 설명하기 위한 도면이다.
전자 장치(200)는 컨텐츠의 동작에 대하여 사용자의 동작을 피드백을 제공하는 동작과 관련하여 사용자로부터 입력을 획득하는 다양한 형태 UI(User interface)를 제공할 수 있다.
도 8a의 실시예에 따르면, 프로세서(예 : 도 2의 프로세서(250))는 사용자의 동작 피드백을 제공하는 모드의 활성화와 관련된 UI를, 메뉴 바 내의 아이콘(641) 형태로 디스플레이(220) 상에 디스플레이할 수 있다.
일 실시예에 따르면, 프로세서(250)는, 전자 장치(200)의 대기 상태에서는 메뉴 바를 디스플레이(220)에 최초로 표시하지 않을 수 있다.대신에, 메뉴 바는, 메뉴 바의 표시를 요청하는 특정 사용자 입력(예: 스크롤 다운(scroll down), 터치(touch))에 따라 선택적으로 표시될 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 사용자의 터치 입력에 대응하여, 아이콘(641)의 활성화 상태 및/또는 비활성화 상태를 전환하여 디스플레이할 수 있다. 프로세서(250)는 아이콘(641)의 활성화에 대응하여 컨텐츠 내의 객체 동작(예 : 비디오 내의 트레이너의 동작)에 대하여 사용자의 동작을 분석하는 동작 피드백 모드를 실행할 수 있다. 예를 들어, 프로세서(250)는 아이콘(641)이 활성화됨에 대응하여, 컨텐츠가 재생되는 경우 도 3의 각 동작을 수행할 수 있다.
도 8b의 실시예에 따르면, 프로세서(예 : 도 2의 프로세서(250))는 컨텐츠의 동작에 대한 사용자의 동작 피드백을 제공하는 모드의 활성화와 관련된 UI를, 상단 바 내의 아이콘(641) 형태 및/또는 플로팅 아이콘(642)으로 디스플레이(220) 상에 디스플레이할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 컨텐츠 내의 객체 동작에 대하여 사용자의 동작을 피드백하는 동작 피드백 모드의 활성화에 대응하여, 관련 화면을 외부 전자 장치에 디스플레이하는 것과 관련한 미러링 옵션 실행 여부를 사용자에게 요청할 수 있다. 예를 들어, 스마트뷰 옵션(643)은 디스플레이를 포함하는 외부 전자 장치(예 : 도 4의 제 1 외부 전자 장치(200))에 컨텐츠 화면(예 : 도 5a의 컨텐츠 화면(610)) 및/또는 사용자 화면(예 : 도 5c의 사용자 화면(620))을 디스플레이하는 것과 관련된 옵션일 수 있다. 스마트뷰 옵션(643)이 선택됨에 대응하여, 프로세서(250)는 사용자에게 컨텐츠 화면(610) 및/또는 사용자 화면(620)을 출력할 외부 전자 장치의 선택(645)을 요청할 수 있다. 또한, 스마트폰 화면 옵션(644)은 전자 장치(예 : 도 2의 전자 장치(200))의 디스플레이(예 : 도 2의 전자 장치(220))에 컨텐츠 화면(610) 및/또는 사용자 화면(620)을 디스플레이하는 것과 관련된 옵션일 수 있다.
도 8c의 실시예에 따르면, 프로세서(250)는 컨텐츠 내의 객체 동작(예 : 운동 비디오 내의 트레이너)에 대하여 사용자의 동작에 대한 가이드를 제공하는 동작 피드백 모드의 설정에 대한 UI를 제공할 수 있다. 일 실시예에 따르면, 프로세서(250)는 미러링 옵션 실행 여부와 관련된 UI(651), 컨텐츠 화면(610) 및/또는 사용자 화면(620)의 크기, 위치, 비율과 관련된 UI(652), 사용자 화면(620)의 투명도 조절과 관련된 UI(653)을 제공할 수 있다.
도 8d의 실시예에 따르면, 프로세서(250)는 컨텐츠의 동작에 대한 사용자의 동작 피드백을 제공하는 모드의 종료와 관련된 UI(User Interface)를 제공할 수 있다.
특정 실시예들에 따르면, 프로세서(250)는 다른 터치 입력에 의하여 아이콘(641)이 비활성화 상태를 전환됨에 대응하여 피드백 모드를 종료할 수 있다.
프로세서(250)는 컨텐츠에 기반하여 동작 피드백을 제공하는 모드의 종료를 지시하는 팝업 창(661)을 제공할 수 있다.
프로세서(250)는 컨텐츠의 동작에 대한 사용자의 동작 피드백을 제공하는 모드를 종료함에 대응하여, 제 2 외부 전자 장치(400)의 디스플레이(410)에 사용자가 동작을 수행함과 관련된 사용자 정보(413, 예 : 동작별 동작 시간, 총 동작 시간, 소모 칼로리, 평균 심박수)를 디스플레이하도록 제어할 수 있다.
도 8e의 실시예에 따르면, 프로세서(250)는 컨텐츠 내의 객체 동작에 대하여 사용자의 동작 피드백을 제공하는 모드의 활성화와 관련된 UI(예 : 트레이너 운동 영상)를, 팝업창(646) 형태로 디스플레이(220) 상에 디스플레이할 수 있다.
일 실시예에 따르면, 프로세서(250)는 컨텐츠를 재생하는 동안에, 컨텐츠 내의 객체가 지정된 분야(예 : 운동 또는 춤추기)의 동작(예 : 운동 또는 춤추기)을 수행하는 구간(예 : 비디오 구간)이 있는지를 판단할 수 있다. 프로세서(250)는 컨텐츠 내의 객체(예 : 트레이너 또는 댄서)가 동작(예 : 운동, 댄스)을 수행하는 구간이 비디오 내에 존재함을 감지할 때, , 컨텐츠 내의 객체 동작의 분석에 기반하여 사용자의 동작 피드백을 제공하는 피드백 모드를 실행 확인을 위한 사용자 입력을 요청하는 팝업창(646)을 디스플레이(220)상에 디스플레이할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치는 디스플레이; 카메라; 컨텐츠를 일시적으로 또는 비일시적으로 저장하는 메모리; 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 컨텐츠에 포함된 이미지를 분석하여 상기 이미지에 포함된 객체의 자세 정보를 생성하고, 상기 컨텐츠를 디스플레이하는 동안, 제 1 사용자가 포함된 이미지를 상기 카메라를 통해 획득하고, 상기 제 1 사용자가 포함된 이미지를 분석하여 상기 제 1 사용자의 자세 정보를 생성하고, 상기 객체의 자세 정보와 상기 제 1 사용자의 자세 정보의 비교 결과에 기반하여 상기 제 1 사용자에게 제공할 피드백 정보를 생성하고, 상기 피드백 정보의 속성, 및/또는 외부 전자 장치의 기능, 사용자의 수 및 사용자와 외부 전자 장치의 관계 중 어느 하나에 기반하여 상기 피드백 정보를 출력할 상기 외부 전자 장치를 결정하고, 상기 결정된 외부 전자 장치에 상기 피드백 정보를 전송하도록 설정될 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치에서, 상기 프로세서는, 상기 비교 결과에 기반하여 상기 객체의 자세 정보와 상기 사용자의 자세 정보의 유사도를 확인하고, 상기 유사도에 기반하여 상기 사용자의 자세를 상기 유사도가 제 1 값 이상인 일치 영역, 상기 유사도가 제 1 값 미만이고, 제 2값 이상인 유사 영역 및/또는 상기 유사도가 제 2 값 미만인 비유사 영역으로 구분한 정보를 포함하는 피드백 정보를 생성 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치에서, 프로세서는, 사용자의 신체 일부에 대응하는 노드와 상기 노드를 연결하는 적어도 하나 이상의 선을 상기 사용자가 포함된 이미지 상에 디스플레이하고, 상기 일치 영역은 제 1색 선, 상기 유사 영역은 제 2 색 선, 상기 비유사 영역은 제 3 색 선으로 디스플레이 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치에서, 프로세서는, 상기 객체의 자세 정보를 오디오 형태로 제공하고, 상기 객체의 자세 정보를 오디오 출력 기능을 탑재한 외부 전자 장치에 출력하도록 상기 외부 전자 장치를 제어 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치에서, 프로세서는, 상기 유사도를 높이기 위하여 자세를 가이드하는 정보를 포함하는 피드백 정보를 생성 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치에서, 상기 프로세서는, 제 1 사용자의 자세 정보와 제 2 사용자의 자세 정보를 구분하여 생성하고, 제 1 사용자의 자세 정보에 대응하여 제 1 피드백 정보를 생성하고, 제 2 사용자의 자세 정보에 대응하여 제 2 피드백 정보를 생성하고, 제 1 피드백 정보를 제 1 사용자가 착용하고 있는 제 1 외부 전자 장치에 출력하도록 결정하고, 제 2 피드백 정보를 제 2 사용자가 착용하고 있는 제 2 외부 전자 장치에 출력하도록 결정할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치에서, 상기 프로세서는 상기 제 1 피드백 정보 및/또는 상기 제 2 피드백 정보를 오디오 형태로 구현하고 상기 제 1 피드백 정보를 상기 제 1 사용자가 착용하고 있는 오디오 출력 기능을 탑재한 제 1 외부 전자 장치에 출력하도록 결정하고, 상기 제 2 피드백 정보를 상기 제 2 사용자가 착용하고 있는 오디오 출력 기능을 탑재한 제 2 외부 전자 장치에 출력하도록 결정 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치에서, 상기 프로세서는, 상기 컨텐츠에 포함된 이미지를 분석하여 제 1 동작과 관련된 제 1 구간을 판단하고, 제 1 구간의 컨텐츠에 포함된 이미지를 분석하여 상기 이미지에 포함된 객체의 동작 정보를 생성 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치에서, 상기 프로세서는, 상기 제 1 구간의 컨텐츠에 포함된 이미지를 분석하여 제 1 동작의 명칭 정보를 생성하고, 상기 제 1 동작의 명칭 정보를 외부 전자 장치의 디스플레이 상에 디스플레이하도록, 상기 외부 전자 장치를 제어할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치에서, 상기 프로세서는 상기 제 1 구간의 컨텐츠 재생 시간 및/또는 재생 위치를 포함하는 구간 정보를 생성하고, 상기 제 1 구간의 구간 정보를 외부 전자 장치의 디스플레이 상에 디스플레이하도록, 상기 외부 전자 장치를 제어할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 일시적으로 또는 비일시적으로 저장된 컨텐츠에 포함된 이미지를 분석하여 상기 이미지에 포함된 객체의 자세 정보를 생성하는 동작; 상기 컨텐츠를 디스플레이하는 동안, 제 1 사용자가 포함된 이미지를 카메라를 통해 획득하는 동작; 상기 제 1 사용자가 포함된 이미지를 분석하여 상기 제 1 사용자의 자세 정보를 생성하는 동작; 상기 객체의 자세 정보와 상기 제 1 사용자의 자세 정보의 비교 결과에 기반하여 상기 제 1 사용자에게 제공할 피드백 정보를 생성하는 동작; 상기 피드백 정보의 속성, 및/또는 외부 전자 장치의 기능, 사용자의 수 및 사용자와외부 전자 장치의 관계 중 어느 하나 에 기반하여 상기 피드백 정보를 출력할 상기 외부 전자 장치를 결정하는 동작; 및 상기 결정된 외부 전자 장치에 상기 피드백 정보를 전송하는 동작;을 포함 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 상기 비교 결과에 기반하여 상기 객체의 자세 정보와 상기 사용자의 자세 정보의 유사도를 확인하는 동작; 및 상기 유사도에 기반하여 상기 사용자의 자세를 상기 유사도가 제 1 값 이상인 일치 영역, 상기 유사도가 제 1 값 미만이고, 제 2 값 이상인 유사 영역 및/또는 상기 유사도가 제 2 값 미만인 비유사 영역으로 구분한 정보를 포함하는 피드백 정보를 생성하는 동작;을 포함 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 사용자의 신체 일부에 대응하는 노드와 상기 노드를 연결하는 적어도 하나 이상의 선을 상기 사용자가 포함된 이미지 상에 디스플레이하는 동작; 및 상기 일치 영역은 제 1색 선, 상기 유사 영역은 제 2 색 선, 상기 비유사 영역은 제 3 색 선으로 디스플레이하는 동작;을 포함 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 상기 객체의 자세 정보를 오디오 형태로 제공하는 동작; 및 상기 객체의 자세 정보를 오디오 출력 기능을 탑재한 외부 전자 장치에 출력하도록 상기 외부 전자 장치를 제어하는 동작;을 포함 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 상기 유사도를 높이기 위하여 자세를 가이드하는 정보를 포함하는 피드백 정보를 생성하는 동작;을 포함 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 제 1 사용자의 자세 정보와 제 2 사용자의 자세 정보를 구분하여 생성하는 동작; 제 1 사용자의 자세 정보에 대응하여 제 1 피드백 정보를 생성하는 동작; 제 2 사용자의 자세 정보에 대응하여 제 2 피드백 정보를 생성하는 동작; 제 1 피드백 정보를 제 1 사용자가 착용하고 있는 제 1 외부 전자 장치에 출력하도록 결정하는 동작; 및 제 2 피드백 정보를 제 2 사용자가 착용하고 있는 제 2 외부 전자 장치에 출력하도록 결정하는 동작;을 포함 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 상기 제 1 피드백 정보 및/또는 상기 제 2 피드백 정보를 오디오 형태로 구현하는 동작; 상기 제 1 피드백 정보를 상기 제 1 사용자가 착용하고 있는 오디오 출력 기능을 탑재한 제 1 외부 전자 장치에 출력하도록 결정하는 동작; 및 상기 제 2 피드백 정보를 상기 제 2 사용자가 착용하고 있는 오디오 출력 기능을 탑재한 제 2 외부 전자 장치에 출력하도록 결정하는 동작;을 포함할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 상기 컨텐츠를 분석하여 제 1 동작과 관련된 제 1 구간을 판단하는 동작; 및 제 1 구간의 컨텐츠에 포함된 이미지를 분석하여 상기 이미지에 포함된 객체의 동작 정보를 생성하는 동작;을 포함할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 상기 제 1 구간의 컨텐츠에 포함된 이미지를 분석하여 제 1 동작의 명칭 정보를 생성하는 동작; 및 상기 제 1 동작의 명칭 정보를 외부 전자 장치의 디스플레이 상에 디스플레이하도록, 상기 외부 전자 장치를 제어하는 동작;을 포함 할 수 있다.
본 발명의 특정 실시예들에 따른 전자 장치의 동작 방법에서, 상기 제 1 구간의 컨텐츠 재생 시간 및/또는 재생 위치를 포함하는 구간 정보를 생성하는 동작; 및 상기 제 1 구간의 구간 정보를 외부 전자 장치의 디스플레이 상에 디스플레이하도록, 상기 외부 전자 장치를 제어하는 동작을 포함할 수 있다.
본 문서의 특정 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다.
도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다.
본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
그리고 본 명세서와 도면에 개시된 본 문서에 개시된 실시예들은 본 문서에 개시된 실시예에 따른 기술 내용을 쉽게 설명하고 본 문서에 개시된 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 문서에 개시된 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 문서에 개시된 특정 실시예들의 범위는 여기에 개시된 실시예들 이외에도 본 문서에 개시된 특정 실시예들의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 문서에 개시된 특정 실시예들의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    디스플레이;
    카메라;
    컨텐츠를 저장하는 메모리; 및
    상기 디스플레이, 상기 카메라 및 상기 메모리와 작동적으로 연결되는 프로세서를 포함하고,
    상기 프로세서는
    상기 컨텐츠의 적어도 하나의 이미지를 분석하여 상기 적어도 하나의 이미지에 포함된 객체로부터 교정 자세 정보를 생성하고,
    상기 컨텐츠를 디스플레이하는 동안, 제 1 사용자가 포함된 이미지를 상기 카메라를 통해 캡쳐하고,
    상기 제 1 사용자가 포함된 이미지를 분석하여 상기 제 1 사용자의 제 1 자세 정보를 생성하고,상기 교정 자세 정보와 상기 제 1 자세 정보를 비교하여 상기 제 1 사용자에게 제공할 제 1 피드백 정보를 생성하고,
    상기 제 1 피드백 정보의 속성, 제 1 외부 전자 장치의 기능, 사용자의 수 및 저장된 사용자와 상기 제 1 외부 전자 장치의 관계 중 어느 하나에 기반하여 상기 제 1 피드백 정보를 전송할 상기 제 1 외부 전자 장치를 선택하고,
    상기 선택된 제 1 외부 전자 장치에 상기 제 1 피드백 정보를 전송하도록 설정되는
    전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 교정 자세 정보를 통해 묘사된 지정된 신체 영역과 상기 제 1 자세 정보를 통해 묘사된 제 1 사용자의 지정된 신체 영역의 유사도를 결정하고,
    상기 제 1 피드백 정보를 생성하는 것은, 제 1 사용자의 신체 영역을 각각
    상기 사용자의 자세를 상기 유사도가 제 1 값 이상인 일치 영역, 상기 유사도가 제 1 값 미만이고, 제 2값 이상인 유사 영역 및/또는 상기 유사도가 제 2 값 미만인 비유사 영역으로 구분하는 것을 포함하는
    전자 장치.
  3. 제2항에 있어서,
    프로세서는,
    복수의 노드들과 복수의 선들을 이용하여 각 지정된 신체 영역을 디스플레이하도록 디스플레이를 제어하고,
    상기 일치 영역 내의 선은 제 1색으로, 상기 유사 영역내의 선은 제 2 색 선으로, 상기 비유사 영역 내의 선은 제 3 색 선으로 그려지는,
    전자 장치.
  4. 제1항에 있어서,
    프로세서는,
    상기 객체의 상기 교정 자세 정보를 오디오 형태로 생성하고,
    상기 제 1 외부 전자 장치는 상기 제 1 외부 전자 장치에 오디오 출력 기능을 포함하는 것에 기반하여 상기 제 1 피드백 정보를 전송하기 위하여 선택되는전자 장치.
  5. 제2항에 있어서,
    제 1 피드백 정보는 상기 결정된 유사도를 높이기 위하여 제 1 사용자가 동작을 조정하라는 가이드를 포함하는
    전자 장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 카메라에서 캡쳐된 상기 제 2 사용자에 대한 제 2 자세 정보를 생성하고,상기 제 2 사용자의 상기 제 2 자세 정보에 기반하여 제 2 피드백 정보를 생성하고,
    상기 제 1 외부 전자 장치가 상기 제 1 사용자가 착용하고 있음을 지시하는 상기 저장된 관계에 기반하여, 상기 제 1 피드백 정보를 전송할 상기 제 1 외부 전자 장치를 선택하고,
    상기 제 2 외부 전자 장치가 상기 제 2 사용자가 착용하고 있음을 지시하는 상기 저장된 관계에 기반하여, 상기 제 2 피드백 정보를 전송할 상기 제 2 외부 전자 장치를 선택하는
    전자 장치.
  7. 제6항에 있어서,
    상기 제 1 피드백 정보 및/또는 상기 제 2 피드백 정보는 오디오 형태의 정보를 포함하고,
    상기 제 1 피드백 정보를 전송할 상기 제 1 외부 전자 장치를 선택하는 것은 오디오 출력 기능을 탑재한 상기 제 1 외부 전자 장치에 부분적으로 기반하고,
    상기 제 2 피드백 정보를 전송할 상기 제 2 외부 전자 장치를 선택하는 것은 오디오 출력 기능을 탑재한 상기 제 2 외부 전자 장치에 부분적으로 기반하는
    전자 장치.
  8. 제1항에 있어서,
    상기 컨텐츠는 상기 적어도 하나의 이미지를 포함하는 영상을 포함하고,
    상기 프로세서는,
    상기 컨텐츠에 포함된 이미지를 분석하여 제 1 동작과 관련된 상기 영상의 제 1 구간을 판단하고,
    상기 적어도 하나의 이미지를 분석하는 것은 제 1 구간에 포함된 상기 적어도 하나의 이미지에 포함된 객체의 동작 정보를 생성하는 것을 포함하는,
    전자 장치.
  9. 제8항에 있어서,
    상기 프로세서는,
    상기 제 1 구간에 포함된 상기 적어도 하나의 이미지를 분석하여 제 1 동작의 명칭을 생성하고,
    상기 생성된 제 1 동작의 명칭을 외부 전자 장치의 디스플레이 상에 디스플레이하도록, 상기 외부 전자 장치를 제어하는
    전자 장치.
  10. 제8항에 있어서,
    상기 프로세서는
    상기 제 1 구간의 컨텐츠 재생 시간 및/또는 재생 위치를 포함하는, 제 1 동작과 관련된 제 1 구간의 구간 정보를 생성하고,
    상기 생성된 구간 정보를 외부 전자 장치의 디스플레이 상에 디스플레이하도록, 상기 외부 전자 장치를 제어하는
    전자 장치.
  11. 전자 장치의 동작 방법에 있어서,
    저장된 컨텐츠에 포함된 적어도 하나의 이미지를 분석하여 상기 적어도 하나의 이미지에 포함된 객체의 교정 자세 정보를 생성하는 동작;
    상기 컨텐츠를 디스플레이하는 동안, 제 1 사용자가 포함된 이미지를 카메라를 통해 캡쳐하는 동작;
    상기 제 1 사용자가 포함된 이미지를 분석하여 상기 제 1 사용자의 제 1 자세 정보를 생성하는 동작;
    상기 교정 자세 정보와 상기 제 1 자세 정보를 비교하여 상기 제 1 사용자에게 제공할 제 1 피드백 정보를 생성하는 동작;
    상기 제 1 피드백 정보의 속성, 제 1 외부 전자 장치의 기능, 사용자의 수 및 저장된 사용자와 상기 제 1 외부 전자 장치의 관계 중 어느 하나 에 기반하여 상기 제 1 피드백 정보를 전송할 상기 제 1 외부 전자 장치를 선택하는 동작; 및
    상기 선택된 제 1 외부 전자 장치에 상기 제 피드백 정보를 전송하는 동작;을 포함하는
    전자 장치의 동작 방법.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 교정 자세 정보를 통해 묘사된 지정된 신체 영역과 상기 제 1 자세 정보를 통해 묘사된 제 1 사용자의 지정된 신체 영역의 유사도를 결정하는 동작을 포함하고,
    상기 제 1 피드백 정보를 생성하는 동작은, 제 1 사용자의 신체 영역을 각각 상기 사용자의 자세를 상기 유사도가 제 1 값 이상인 일치 영역, 상기 유사도가 제 1 값 미만이고, 제 2값 이상인 유사 영역 및/또는 상기 유사도가 제 2 값 미만인 비유사 영역으로 구분하는 동작을 포함하는
    전자 장치의 동작 방법.
  13. 제12항에 있어서,
    복수의 노드들과 복수의 선들을 이용하여 각 지정된 신체 영역을 디스플레이하도록 디스플레이를 제어하는 동작을 포함하고,
    상기 일치 영역 내의 선은 제 1색으로, 상기 유사 영역내의 선은 제 2 색 선으로, 상기 비유사 영역 내의 선은 제 3 색 선으로 그려지는,
    전자 장치의 동작 방법.
  14. 제11항에 있어서,
    상기 객체의 상기 교정 자세 정보를 오디오 형태로 생성하는 동작을 포함하고,
    상기 제 1 외부 전자 장치는 상기 제 1 외부 전자 장치에 오디오 출력 기능을 포함하는 것에 기반하여 상기 제 1 피드백 정보를 전송하기 위하여 선택되는
    전자 장치의 동작 방법.
  15. 제12항에 있어서,
    제 1 피드백 정보는 상기 결정된 유사도를 높이기 위하여 제 1 사용자가 동작을 조정하라는 가이드를 포함하는
    전자 장치의 동작 방법.
PCT/KR2022/000569 2021-01-12 2022-01-12 전자 장치 및 전자 장치의 동작 방법 WO2022154483A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/671,992 US20220221930A1 (en) 2021-01-12 2022-02-15 Electronic device and operation method of electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0004181 2021-01-12
KR1020210004181A KR20220102009A (ko) 2021-01-12 2021-01-12 전자 장치 및 전자 장치의 동작 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/671,992 Continuation US20220221930A1 (en) 2021-01-12 2022-02-15 Electronic device and operation method of electronic device

Publications (1)

Publication Number Publication Date
WO2022154483A1 true WO2022154483A1 (ko) 2022-07-21

Family

ID=82447375

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000569 WO2022154483A1 (ko) 2021-01-12 2022-01-12 전자 장치 및 전자 장치의 동작 방법

Country Status (2)

Country Link
KR (1) KR20220102009A (ko)
WO (1) WO2022154483A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101790429B1 (ko) * 2016-02-15 2017-10-26 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
JP2019028509A (ja) * 2017-07-25 2019-02-21 株式会社クオンタム 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム
KR102141288B1 (ko) * 2018-12-17 2020-08-04 이화여자대학교 산학협력단 홈 트레이닝 제공 방법 및 시스템
KR20200098970A (ko) * 2019-02-13 2020-08-21 임혜민 동작인식 기반의 스마트 미용기술 러닝 장치 및 방법
JP2020201772A (ja) * 2019-06-11 2020-12-17 株式会社 日立産業制御ソリューションズ 姿勢分析プログラム、および、姿勢分析装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101790429B1 (ko) * 2016-02-15 2017-10-26 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
JP2019028509A (ja) * 2017-07-25 2019-02-21 株式会社クオンタム 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム
KR102141288B1 (ko) * 2018-12-17 2020-08-04 이화여자대학교 산학협력단 홈 트레이닝 제공 방법 및 시스템
KR20200098970A (ko) * 2019-02-13 2020-08-21 임혜민 동작인식 기반의 스마트 미용기술 러닝 장치 및 방법
JP2020201772A (ja) * 2019-06-11 2020-12-17 株式会社 日立産業制御ソリューションズ 姿勢分析プログラム、および、姿勢分析装置

Also Published As

Publication number Publication date
KR20220102009A (ko) 2022-07-19

Similar Documents

Publication Publication Date Title
WO2022139209A1 (ko) 피트니스 피드백을 제공하는 전자 장치, 이의 제어 방법 및 서버
WO2022191435A1 (ko) 사용자의 동작을 보조하기 위한 전자 장치 및 시스템
WO2021230485A1 (ko) 영상을 제공하는 방법 및 장치
WO2022131549A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022059968A1 (ko) 증강 현실 콘텐츠를 제공하는 전자 장치 및 그의 동작 방법
WO2022154483A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2021256709A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022080990A1 (ko) 전자 장치 및 그의 형태에 기초한 기능 제어 방법
WO2022098204A1 (ko) 가상현실 서비스를 제공하는 전자 장치 및 방법
WO2022154166A1 (ko) 콘텐츠 생성 기능을 제공하기 위한 방법 및 이를 지원하는 전자 장치
WO2023054896A1 (ko) 획득된 데이터에 기반하여 화면을 표시하기 위한 전자 장치 및 방법
WO2024025176A1 (ko) 운동 카운팅 방법 및 이를 지원하는 전자 장치
WO2024096565A1 (ko) 운동 루틴을 생성하기 위한 시스템 및 방법
WO2022255785A1 (ko) 복수의 전자 장치를 이용하여 운동 데이터를 제공하는 방법 및 그 전자 장치
WO2024034889A1 (ko) 보행 상태 결정 방법 및 그 방법을 수행하는 장치
WO2024076131A1 (ko) 웨어러블 장치의 센싱 정보에 기초하여 참조 영상 출력 방법 및 그 방법을 수행하는 전자 장치
WO2023106591A1 (ko) 사용자의 감정에 기반하여 콘텐트를 제공하기 위한 전자 장치 및 방법
WO2022239931A1 (ko) 전자 장치 및 전자 장치에서 이미지 촬영 방법
WO2022092458A1 (ko) 전자 장치 및 전자 장치에서 태스크 수행을 위한 장치를 결정하는 방법
WO2022177166A1 (ko) 화면 재생률을 제어하는 방법 및 이를 지원하는 전자 장치
WO2023106763A1 (ko) 웨어러블 장치를 위한 움직임 제어 모델 생성 방법 및 그 방법을 수행하는 전자 장치
WO2023085679A1 (ko) 전자 장치 및 편집 영상을 자동으로 생성하는 방법
WO2024071708A1 (ko) 웨어러블 장치 및 그 장치를 제어하는 방법
WO2024106806A1 (ko) 통신 회로를 포함하는 웨어러블 전자 장치 및 이의 동작 방법
WO2022169131A1 (ko) 운동 영상 표시 방법 및 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22739678

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22739678

Country of ref document: EP

Kind code of ref document: A1