WO2024048911A1 - 비디오를 획득하는 동안 메타 데이터를 획득하는 전자 장치 및 그 방법 - Google Patents

비디오를 획득하는 동안 메타 데이터를 획득하는 전자 장치 및 그 방법 Download PDF

Info

Publication number
WO2024048911A1
WO2024048911A1 PCT/KR2023/007103 KR2023007103W WO2024048911A1 WO 2024048911 A1 WO2024048911 A1 WO 2024048911A1 KR 2023007103 W KR2023007103 W KR 2023007103W WO 2024048911 A1 WO2024048911 A1 WO 2024048911A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
video
sensor
housing
processor
Prior art date
Application number
PCT/KR2023/007103
Other languages
English (en)
French (fr)
Inventor
김태훈
오영학
이승은
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220130982A external-priority patent/KR20240030889A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US18/211,030 priority Critical patent/US20240070878A1/en
Publication of WO2024048911A1 publication Critical patent/WO2024048911A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Definitions

  • One or more embodiments relate to an electronic device and method for obtaining metadata of video acquired by the electronic device.
  • the electronic device may include at least one camera.
  • the electronic device may acquire video by controlling the at least one camera.
  • At least one camera of the electronic device may be mounted on a printed circuit board and manufactured in the form of a module.
  • the present disclosure includes a first housing, a second housing, a first sensor, a second sensor, at least one camera provided on the first housing, and a processor, wherein the processor includes the at least one camera.
  • the first sensor identify the angle between the first housing and the second housing, and within the video acquisition state, using the second sensor.
  • the video It may be configured to obtain information for dividing a portion of .
  • a method performed by an electronic device includes controlling at least one camera provided on a first housing of the electronic device to obtain video, using a first sensor. Identifying an angle between the first housing and the second housing, using the second sensor to identify the magnitude of rotational motion of the electronic device in the video acquisition state. and obtaining information for segmenting a portion of the video, wherein at least one of the angle changing beyond a specified range, or the magnitude of the rotational motion exceeding a specified size, corresponds to an identified time interval. can do.
  • an electronic device includes at least one sensor configured to identify motion of the electronic device, at least one camera, and a processor, wherein the processor uses the at least one sensor to: Within the state of controlling at least one camera to acquire video, identify a motion of the electronic device and, based on a shooting input, correspond to one of designated motions for segmenting the video. Identify the location of at least one subject in the video based on the identified motion, and obtain first metadata including the time interval in which the location of the at least one subject or the specified motion was identified. there is.
  • an electronic device includes a first housing, a second housing, and coupling the second housing to the first housing to be rotatable with respect to the first housing. It may include a hinge assembly, a sensor for identifying angles of the first housing, the hinge assembly, and the second housing, at least one camera disposed on one side of the first housing, and a processor.
  • the processor may identify the angle using the sensor while acquiring video by controlling the at least one camera.
  • the processor may identify the magnitude of the rotational motion of the electronic device using the second sensor while acquiring the video.
  • the processor determines a time interval corresponding to the time interval within the video. Information for dividing a part can be obtained.
  • a method of an electronic device includes controlling at least one camera disposed on one side of the first housing of the electronic device to obtain video based on a shooting input, wherein the first It may include a housing, a hinge assembly for coupling a second housing to the first housing so as to be rotatable relative to the first housing, and an operation of identifying the angle using a sensor for identifying the angle of the second housing.
  • the method of the electronic device may include an operation of identifying the magnitude of rotational motion of the electronic device using the second sensor within the state of acquiring the video.
  • the method of the electronic device is based on identifying a time interval in the video in which at least one of the angle changing beyond a specified range or the magnitude of the rotational motion exceeding a specified magnitude is identified. It may include an operation of obtaining information for dividing a portion corresponding to the section.
  • an electronic device may include at least one sensor, at least one camera, and a processor to identify motion of the electronic device.
  • the processor may identify the motion of the electronic device using the at least one sensor while controlling the at least one camera to acquire video based on a shooting input.
  • the processor may identify the location of at least one subject included in the video based on identifying the motion of the electronic device corresponding to one of designated motions for segmenting the video. You can.
  • the processor may obtain metadata including a time interval in which one of the specified motions is identified, or the location of the at least one subject.
  • a method of an electronic device based on a shooting input, controlling at least one camera to acquire video, using at least one sensor to identify motion of the electronic device It may include an operation of identifying the motion of the electronic device.
  • the method of the electronic device identifies the location of at least one subject included in the video based on identifying the motion of the electronic device corresponding to one of designated motions for segmenting the video.
  • the method of the electronic device may include an operation of acquiring metadata including a time interval in which one of the specified motions is identified, or the location of the at least one subject.
  • FIG. 1 shows an example of a block diagram of an electronic device in a network environment, according to an embodiment.
  • FIG. 2A shows an example of a front view and a back view of an electronic device, according to an embodiment.
  • FIG. 2B shows an example of a block diagram of an electronic device, according to an embodiment.
  • Figure 3 shows an example of a block diagram of an electronic device, according to an embodiment.
  • FIG. 4 illustrates an example of video obtained by identifying motion of an electronic device, according to an embodiment.
  • Figure 5 shows an example of video obtained by identifying motion of an electronic device, according to an embodiment.
  • FIG. 6 illustrates an example of a state of use of an electronic device for guiding editing of a video, according to an embodiment.
  • Figure 7 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • Figure 8 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • Figure 9 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • FIG. 1 shows an example of a block diagram of an electronic device in a network environment, according to an embodiment.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • a first network 198 e.g., a short-range wireless communication network
  • a second network 199 e.g., a long-distance wireless communication network.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted Boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module includes a printed circuit board, an RFIC provided on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band), and a plurality of antennas (e.g., array antennas) provided on or adjacent to a second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a first side e.g., bottom side
  • antennas e.g., array antennas
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used negatively.
  • a module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • One or more embodiments of this document may be stored in a storage medium (e.g., internal memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including instructions.
  • a processor e.g., processor 120
  • a device e.g., electronic device 101
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • a method according to one or more embodiments disclosed in this document may be provided and included in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component e.g., a module or program of the above-described components may include a single or a plurality of entities, and some of the plurality of entities may be provided separately to other components. It may be possible. According to one or more embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or It may be omitted, or one or more other operations may be added.
  • FIG. 2A shows an example of a front view and a back view of an electronic device, according to an embodiment.
  • FIG. 2B shows an example of a block diagram of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 2A may be an example of the electronic device 101 of FIG. 1 .
  • the electronic device 101 has the first housing 230 and the second housing 240 fully folded out by the hinge assembly 235.
  • An unfolding state can be provided.
  • the unfolded state may include a state in which one side of the first housing 230 including the display 250 corresponds to one side of the second housing 240 including the display 250. You can.
  • the electronic device 101 may include a camera 215 provided on one side 251 and a camera 210 provided on one side 252.
  • the electronic device 101 includes a first housing 230, a second housing 240, and a hinge assembly 235 that rotatably couples the second housing 240 to the first housing 230. may include.
  • the electronic device 101 may include a display 250. However, it is not limited to this.
  • the display 250 of the electronic device 101 is controlled by a controller such as a processor (e.g., processor 120 of FIG. 1) to output visualized information to the user.
  • a controller such as a processor (e.g., processor 120 of FIG. 1) to output visualized information to the user.
  • the display 250 may include a flat panel display (FPD) and/or electronic paper.
  • the FPD may include a liquid crystal display (LCD), a plasma display panel (PDP), and/or one or more light emitting diodes (LED).
  • the LED may include an organic light emitting diode (OLED).
  • the display 250 receives power from a cover panel (C-panel, or cover panel) to protect the display 250, a base substrate, and a thin film transistor (TFT) layer formed on the base substrate. It may include at least one of a pixel layer (or organic light emitting diode layer) including pixels that emit light based on the voltage, or a polarization layer provided on the pixel layer.
  • the substrate may be formed of multiple layers.
  • the display 250 of the electronic device 101 may include a sensor (e.g., touch sensor panel (TSP)) for detecting an external object (e.g., a user's finger) on the display 250.
  • a sensor e.g., touch sensor panel (TSP)
  • TSP touch sensor panel
  • the electronic device 101 may detect an external object that is in contact with the display 250 or floating on the display 250.
  • the electronic device 101 selects a specific visual object (e.g., screen) corresponding to the location of the external object on the display 250 among the visual objects being displayed within the display 250. ) can execute functions related to .
  • the electronic device 101 may include at least one of a processor 120, a memory 130, a camera 210, or a sensor 220.
  • Processor 120, memory 130, camera 210, and sensor 220 may be electrically and/or operatively connected to each other by an electronic component such as a communication bus.
  • the sensor 220 may include at least one of an acceleration sensor 221, a gyro sensor 222, or a hall sensor 223.
  • the embodiment is not limited thereto.
  • processor 120 may be integrated into a single unit, such as a system on a chip (SoC). It may be included in an integrated circuit (single integrated circuit).
  • SoC system on a chip
  • the type and/or number of hardware components included in the electronic device 101 are not limited to those shown in FIG. 2B.
  • the electronic device 101 may include only some of the hardware components shown in FIG. 2B.
  • the processor 120, memory 130, camera 210, and/or sensor 220 are shown as singular, but may be plural.
  • the processor 120 of the electronic device 101 may correspond to at least a portion of the processor 120 of FIG. 1.
  • the processor 120 may include hardware components for processing data based on one or more instructions.
  • Hardware components for processing data include, for example, an arithmetic and logic unit (ALU), a floating point unit (FPU), a field programmable gate array (FPGA), an application processor (AP), a micro-computer (Micom), and/ or micom controller), and/or a central processing unit (CPU).
  • the number of processors 120 may be one or more.
  • the processor 120 may have the structure of a multi-core processor, such as a dual core, quad core, or hexa core.
  • the processor 120 may have the structure of a single core processor, such as a single core.
  • the memory 130 of the electronic device 101 may include hardware components for storing data and/or instructions that are input and/or output to the processor 120.
  • the memory 130 may include volatile memory, such as random-access memory (RAM), and/or non-volatile memory, such as read-only memory (ROM).
  • volatile memory may include at least one of dynamic RAM (DRAM), static RAM (SRAM), cache RAM, and pseudo RAM (PSRAM).
  • non-volatile memory may include at least one of programmable ROM (PROM), erasable PROM (EPROM), and electrically erasable PROM (EEPROM).
  • one or more instructions indicating an operation for the processor 120 to perform data may be stored.
  • a collection of instructions may be referred to as firmware, operating system, process, routine, sub-routine, and/or application.
  • the electronic device 101 and/or the processor 120 of the electronic device 101 executes a set of a plurality of instructions distributed in the form of an application, as shown in FIG. 8 At least one of the operations shown in Figures 9 through 9 may be performed.
  • the camera 210 of the electronic device 101 may include cameras with different angles of view (or FoV).
  • the electronic device 101 may acquire video through the camera 210 based on a shooting input.
  • the electronic device 101 may control the camera 210 to obtain video.
  • the video may be composed of multiple frames.
  • the video may be composed of continuous (or sequential) images acquired through the camera 210.
  • the sensor 220 of the electronic device 101 may detect the state of the electronic device 101 (eg, folded state or unfolded state) or the state of the external environment.
  • the electronic device 101 may generate an electrical signal or data value corresponding to the detected state from the sensor 220.
  • the sensor 220 may include at least one acceleration sensor 221, a gyro sensor 222, and/or a hall sensor 223.
  • the sensor 220 may be used to detect motion of the electronic device 101.
  • the electronic device 101 can detect the angle between the first housing 230, the hinge assembly 235, and the second housing 240.
  • the electronic device 101 may obtain the angle based on the Hall sensor 223.
  • the electronic device 101 may identify the state of the electronic device 101 based on the sensor 220.
  • the electronic device 101 has a direction 261 of one side 251-1 of the first housing 230, and a direction 262 of one side 251-2 of the second housing 240. ) can be identified in a side-by-side unfolding state.
  • the direction 261 of one side 251-1 of the first housing 230 and the direction 262 of one side 251-2 of the second housing 240 are opposite.
  • the in-folding state can be identified.
  • the electronic device 101 identifies a flex mode in which the angle formed by one side of the first housing 230 and one side of the second housing 240 is within a specified range. can do.
  • the electronic device 101 may change the user interface (UI) displayed on the screen of the display (eg, display 250 of FIG. 2A) while identifying the flex mode.
  • UI user interface
  • the electronic device 101 has a direction 253 of one side 251-1 of the first housing 230, and a direction 254 of one side 251-2 of the second housing 240. ) can be identified using the Hall sensor 223.
  • the electronic device 101 may identify the mode and/or state of the electronic device 101 based on the angle between the one surface 251-1 and the one surface 251-2. .
  • the sensor 220 of the electronic device 101 may include an acceleration sensor 221 and/or a gyro sensor 222 for measuring the physical movement of the electronic device 101.
  • the acceleration sensor 221 may output electrical information indicating the magnitude of gravitational acceleration measured in each of a plurality of designated axes (eg, x-axis, y-axis, and z-axis) that are perpendicular to each other.
  • the processor 120 of the electronic device 101 may measure the motion of the electronic device 101 in physical space based on electrical information output from the acceleration sensor 221.
  • the motion measured by the electronic device 101 may represent the orientation of the electronic device 101 and/or the shape of the electronic device 101 measured by the acceleration sensor 221.
  • the electronic device 101 may determine the mode of the electronic device 101 based on the measured motion.
  • the electronic device 101 may adjust the size or position of the screen displayed within the display based on the determined mode.
  • the electronic device 101 uses another sensor (e.g., gyro sensor 222 and/or hall sensor 223) that is distinct from the acceleration sensor 221 to determine the shape of the electronic device 101.
  • the electrical information it represents can be measured.
  • the electronic device 101 may use the acceleration sensor 221 to identify a portion where at least one screen is displayed on the display based on the motion of the electronic device 101.
  • the Hall sensor 223 may include one or more magnets and/or one or more magnetic sensors.
  • the one or more magnets included in the Hall sensor 223 and/or the one or more magnetic sensors may be provided at different locations within the electronic device 101.
  • the positional relationship of the one or more magnets and/or the one or more magnetic sensors within the electronic device 101 may change depending on the shape of the electronic device 101.
  • the electronic device 101 may measure the change in the positional relationship through the one or more magnetic sensors. A change in the positional relationship may cause a change in the magnetic field formed by the one or more magnets.
  • the electronic device 101 may use the Hall sensor 223 to obtain an electrical signal indicating a change in the magnetic field.
  • the electronic device 101 uses the electrical signal obtained from the Hall sensor 223 to distinguish the motion or state (e.g., folded state or unfolded state) of the electronic device 101. can do.
  • the electronic device 101 may receive data indicating the state of the electronic device 101 from the Hall sensor 223.
  • the hall sensor 223 may output data indicating the shape of the display.
  • the display may be referred to as a flexible display.
  • the shape of the display may change as it is folded or unfolded by the folding axis 237.
  • the hall sensor 223 may output different data indicating the shape of the display.
  • the electronic device 101 may identify the angle between the first housing 230 and the second housing 240 of the electronic device 101 based on the different data.
  • the electronic device 101 may display a screen within a portion of the display based on the identified angle.
  • the gyro sensor 222 of the electronic device 101 may acquire an electrical signal related to the rotational speed of the electronic device 101 (e.g., the angular velocity of the electronic device 101 with respect to designated axes). there is.
  • the electronic device 101 may identify the motion of the electronic device 101 based on the electrical signal obtained through the gyro sensor 222.
  • the electronic device 101 may store metadata related to the motion in video acquired through the camera 210, based on the identified motion.
  • the motion of the electronic device 101 may include a motion related to rotation speed.
  • the motion may be a rotational motion of the electronic device 101.
  • the electronic device 101 may identify the size of the rotational motion.
  • the size of the rotational motion may be identified based on data obtained based on the sensor 220 included in the electronic device 101.
  • the size of the rotational motion may be related to the size of the angular velocity of the electronic device 101 rotating about an axis formed inside or outside the electronic device 101.
  • the electronic device 101 may acquire video by controlling the camera 210 based on a shooting input.
  • the electronic device 101 may identify the angles of the first housing 230, the hinge assembly 235, and the second housing 240 using the sensor 220 in the video acquisition state.
  • the sensor 220 may include a Hall sensor 223.
  • the electronic device 101 can identify the angle that changes beyond a designated range.
  • the designated range may be a range that can detect changes in the mode and/or state of the electronic device 101.
  • the electronic device 101 may identify the motion of the electronic device 101 that corresponds to one of designated motions for segmenting a video. For example, while acquiring a video, the electronic device 101 may identify at least one subject included in the video based on the motion.
  • the designated motions may be related to at least one of the mode or state of the electronic device 101.
  • the designated motions may be related to at least a portion of an electrical signal obtained using the sensor 220 of the electronic device 101.
  • the electronic device 101 may store metadata related to the time interval in which the specified motion is identified within the video while acquiring the video.
  • the electronic device 101 may store the video including the metadata in the memory 130 . Descriptions related to the designated motions of the electronic device 101 are described later in FIG. 4 .
  • the electronic device 101 while acquiring a video, may identify at least one of the location or direction of at least one subject within the video. For example, the electronic device 101 may identify a time period during which at least one of the location or direction of the at least one subject exceeds a designated range. The electronic device 101 may obtain metadata including the time interval. The electronic device 101 may include the metadata in the video. The electronic device 101 may store the video including the metadata in the memory 130.
  • the electronic device 101 can edit a video including metadata.
  • the electronic device 101 may provide a visual object related to the metadata or a guide for editing the video related to the metadata.
  • a guide for editing video is described later in FIG. 6.
  • the electronic device 101 detects at least one subject within a video based on an identified angle between the first housing 230 and the second housing 240 that changes beyond a specified range. can be identified. For example, the electronic device 101 may determine that the subject is included in a specific category corresponding to a face, based on the eyes, nose, mouth, and/or ears identified as included in the subject. For example, the electronic device 101 provides hardware (e.g., neural processing unit (NPU), and/or graphic processing unit (GPU)) for performing calculations related to artificial intelligence, and functions related to artificial intelligence. The subject may be identified based on information obtained based on software and/or an external electronic device (eg, a server providing functions related to artificial intelligence).
  • NPU neural processing unit
  • GPU graphic processing unit
  • the electronic device 101 may identify at least one subject included in a designated portion of the video.
  • the designated portion of the video may include portions spaced less than a specified distance from a border line or edge of the video.
  • the electronic device 101 may acquire, based on the at least one subject identified as being included in the designated portion, information indicating a time interval including a time point at which the at least one subject was identified within the designated portion. You can. A description of the operation of the electronic device 101 that acquires information indicating a time interval including a time point at which the at least one subject was identified within the designated portion will be described later with reference to FIG. 3 .
  • the electronic device 101 may identify the motion of the electronic device 101 using the sensor 220.
  • the motion may include a mode and/or state of the electronic device 101.
  • the mode of the electronic device 101 may include a flex mode.
  • the state of the electronic device 101 may include a folded state and an unfolded state.
  • the electronic device 101 may identify the motion based on an electrical signal obtained using the sensor 220 of the electronic device 101.
  • the motion may be determined according to the direction in which the electronic device 101 faces.
  • the electronic device 101 uses the acceleration sensor 221 to obtain at least one of the magnitude or direction of the acceleration (or force) acting on the electronic device 101.
  • the motion of the electronic device 101 can be obtained.
  • the electronic device 101 may use the gyro sensor 222 to obtain the angular velocity of the electronic device 101 rotating with respect to the gyro sensor 222 .
  • the electronic device 101 uses the gyro sensor 222 to acquire the Coriolis force acting on the electronic device 101 to obtain the angular velocity of the electronic device 101. can do.
  • the electronic device 101 may identify the motion of the electronic device 101 based on the obtained angular velocity.
  • the electronic device 101 may identify at least one of the state or mode of the electronic device 101 using the Hall sensor 223.
  • the electronic device 101 may obtain the angle between the first housing 230, the hinge assembly 235, and the second housing 240 using the Hall sensor 223.
  • the electronic device 101 may obtain a folded state in which the angle is within a first designated range.
  • the first designated range may include a range where the angle between the first housing 230, hinge assembly 235, and second housing 240 is greater than 0° and less than 20°.
  • the electronic device 101 uses the Hall sensor 223 to determine whether the angle between the first housing 230, the hinge assembly 235, and the second housing 240 is within a second designated range. Flex mode can be identified.
  • the second designated range includes a range where the angle between the first housing 230, the hinge assembly 235, and the second housing 240 is greater than 20° and less than 160°. can do.
  • the electronic device 101 may identify an unfolded state in which the angle between the first housing 230, the hinge assembly 235, and the second housing 240 is within a third specified range. there is.
  • the third designated range may include a range where the angle between the hinge assembly 235 and the second housing 240 is greater than or equal to 160° and less than or equal to 180°.
  • the electronic device 101 may acquire a video including metadata and provide a guide related to the metadata while editing the video.
  • the electronic device 101 may enhance the user experience of the electronic device 101 by providing the guide.
  • FIG. 3 shows an example of video obtained by identifying motion of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 3 may be an example of the electronic device 101 of FIGS. 1, 2A, and/or 2B.
  • the camera 210 of FIG. 3 may be an example of the camera 210 of FIGS. 2A and/or 2B.
  • the operations of FIG. 3 may be executed by processor 120 of FIG. 1 and/or FIG. 2B.
  • the electronic device 101 may acquire video through the camera 210.
  • the electronic device 101 may acquire the video by controlling the camera 210 in a folded state, unfolded state, and/or flex mode.
  • the electronic device 101 may identify at least one subject 315 while acquiring the video. For example, the electronic device 101 may identify the direction of the at least one subject 315 identified in the video.
  • the electronic device 101 may acquire video 310 by controlling the camera 210 provided on one side 252 within the state 300.
  • the electronic device 101 may identify the direction of at least one subject 315 included in the video 310.
  • the direction of at least one subject 315 identified within the state 300 may be referred to as the l direction.
  • the electronic device 101 based on an acceleration sensor (e.g., acceleration sensor 221 in FIG. 2B) and/or a gyro sensor (e.g., gyro sensor 222 in FIG. 2B),
  • the motion of the electronic device 101 can be identified.
  • the electronic device 101 may identify rotation in a counterclockwise (d) and/or clockwise (b) direction through an acceleration sensor and/or a gyro sensor.
  • the electronic device 101 may identify a designated motion of the electronic device 101 based on the acceleration sensor and/or the gyro sensor.
  • the electronic device 101 may obtain parameters related to the specified motion.
  • the parameter may be related to an electrical signal obtained based on a sensor of the electronic device 101 (eg, sensor 220 in FIG. 2B).
  • the designated motion may include a state in which the electronic device 101 is rotated, such as state 305 .
  • the electronic device 101 may obtain metadata to indicate a time interval acquired within state 305.
  • the electronic device 101 may store the video 310, including the metadata, in a memory (e.g., the memory 130 of FIG. 1 and/or FIG. 2B).
  • Electronic device 101 may acquire video 310 within state 305 .
  • the electronic device 101 may identify at least one subject 315 included in the video 310.
  • the electronic device 101 may identify the direction of at least one subject 315 included in the video 310 obtained within the state 305.
  • the direction of the at least one subject 315 may be referred to as the m direction.
  • the electronic device 101 identifies at least one object 315 pointing in the m direction, the magnitude or direction of acceleration (or force) acting on the electronic device 101 through an acceleration sensor It can be identified that at least one of them is within the specified range.
  • the designated range may be related to the motion of the electronic device 101.
  • the designated range may be related to the degree to which the electronic device 101 is tilted.
  • the electronic device 101 may identify motion of the electronic device 101 based on the acceleration sensor and/or the gyro sensor. For example, the electronic device 101 may, within a state of acquiring the video 310, determine the time when at least one of the magnitude or direction of the acceleration acting on the electronic device 101 obtained by the acceleration sensor is within a specified range. Information indicating the section can be obtained. The electronic device 101 may include metadata related to information representing the time section in the video 310 .
  • the electronic device 101 may identify a point in time when at least one of the magnitude or direction of acceleration (or force) acting on the electronic device 101 is within a specified range.
  • the electronic device 101 can identify a time section including the time point.
  • the electronic device 101 may obtain metadata related to the time interval including the point in time.
  • the electronic device 101 may identify the angle between at least one subject 315 and the boundary line of the video 310.
  • the electronic device 101 may identify that the angle between the at least one subject 315 and a boundary line (or edge) of the video 310 exceeds a specified threshold.
  • the electronic device 101 determines that the angle between the at least one subject 315 and a boundary line of the video 310 exceeds the specified threshold, based on which the angle between the subject 315 and the boundary line of the video 310 is identified as exceeding the specified threshold.
  • a time interval including a time point identified as having been identified can be obtained.
  • the electronic device 101 may store metadata related to the time section in the video 310 .
  • the electronic device 101 may obtain information for rotating and displaying the video 310 within a time section including the time point identified as exceeding the specified threshold.
  • the electronic device 101 displays a guide for editing the video 310 on the screen using information for rotating and displaying the video 310 in a state for editing the video 310. You can.
  • the electronic device 101 may obtain metadata related to a time period including a time point identified as exceeding a specified threshold.
  • the electronic device 101 may enhance the user experience of the electronic device 101 by providing a guide for editing the video 310 using the metadata.
  • FIG. 4 illustrates an example of video obtained by identifying motion of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 4 may be an example of the electronic device 101 of FIGS. 1, 2A, 2B, and/or 3.
  • the operations of FIG. 4 may be executed by the processor 120 of FIG. 1 and/or FIG. 2B.
  • the electronic device 101 displays a camera in a mode and/or state related to the angle between the first housing 230 and/or the second housing 240.
  • Video can be obtained by controlling 210.
  • the mode and/or state associated with the angle between the first housing 230, the hinge assembly 235, and/or the second housing 240 may include a flex mode, a folded state, and/or an unfolded state.
  • the flex mode may include a case where the angle between the first housing 230, the hinge assembly 235, and the second housing 240 is within a specified range.
  • the flex mode may include a case where the angle between the first housing 230, the hinge assembly 235, and the second housing 240 is greater than 20° and less than 160°.
  • the folded state may include a case where the angle between the first housing 230, the hinge assembly 235, and the second housing 240 is 0° or more and 20° or less.
  • the unfolded state may include a case where the angle between the first housing 230, the hinge assembly 235, and the second housing 240 is 160° or more and 180° or less. there is.
  • the electronic device 101 is based on the angle between the first housing 230, the hinge assembly 235, and the second housing 240. Motion can be identified.
  • the electronic device 101 may obtain parameters related to the motion.
  • the motion-related parameters may be related to the magnitude and/or direction of acceleration (or force) acting on the electronic device 101.
  • the motion-related parameter may be related to the angle between the first housing 230, the hinge assembly 235, and the second housing 240 of the electronic device 101.
  • the electronic device 101 may acquire metadata based on the motion of the electronic device 101 while acquiring the video 310.
  • the electronic device 101 may acquire the video 310 within the state 400.
  • the state 400 may be referred to as an unfolding state.
  • the electronic device 101 may identify at least one subject 315 while acquiring video in the state 400.
  • Electronic device 101 may acquire video 310 while changing from state 400 to state 410 .
  • the electronic device 101 may identify the location of at least one subject 315 included in the video 310 while changing from state 400 to state 410 .
  • the electronic device 101 may identify the distance of the at least one subject 315 from the boundary line (or edge) of the video 310.
  • the electronic device 101 may identify the at least one subject 315 within a designated portion spaced less than a designated distance from the boundary line of the video 310 .
  • the electronic device 101 may obtain a time interval in which the at least one subject 315 is identified within a designated portion spaced less than a designated distance from the boundary line.
  • the electronic device 101 may obtain information indicating the time section.
  • the electronic device 101 may include metadata including information representing the time section in the video 310 and store it in memory. According to one embodiment, the electronic device 101 may provide a guide indicating the time section while editing the video 310.
  • the electronic device 101 may identify that at least one subject 315 is included in a designated portion.
  • the electronic device 101 may obtain metadata including a time period during which the at least one subject 315 is identified within the designated portion.
  • the electronic device 101 may acquire video 310 including the metadata.
  • the electronic device 101 may enhance the user experience of the electronic device 101 by providing a guide related to the time section while editing the video 310.
  • Figure 5 shows an example of video obtained by identifying motion of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 5 may be an example of the electronic device 101 of FIGS. 1, 2A, 2B, 3, and/or 4.
  • the camera 210 of FIG. 5 may be an example of the camera 210 of FIGS. 2A, 2B, 3, and/or 4.
  • the camera 215 in FIG. 5 may be an example of the camera 215 in FIG. 2A.
  • the operations of FIG. 5 may be executed by the processor 120 of FIG. 1 and/or FIG. 2B.
  • the electronic device 101 may acquire video 310 by controlling the camera 210 in state 500 .
  • the electronic device 101 may identify at least one subject 315 while controlling the camera 210 to acquire the video 310 .
  • the electronic device 101 may rotate about one axis 520 while controlling the camera 210 to acquire video 310 .
  • the position of the axis 520 is not limited.
  • the electronic device 101 may obtain video 310 by controlling the camera 215 in the rotation completed state 510.
  • the electronic device 101 may identify a change in the optical axis of the camera 210.
  • the electronic device 101 may identify changes in motion of the electronic device 101 while the optical axis changes.
  • the electronic device 101 may identify getting out of the video 310 after at least one subject 315 is identified within a designated portion while the optical axis changes.
  • the at least one subject 315 leaving the video 310 may include the at least one subject 315 not being identified within the video 310 .
  • the electronic device 101 while controlling the camera 210 to acquire the video 310, the electronic device 101 detects the electronic device through at least one sensor (e.g., the sensor 220 in FIG. 2B). 101) motion can be identified.
  • the motion of the electronic device 101 may be related to at least one of the magnitude or direction of acceleration (or force) acting on the electronic device 101.
  • the motion may be related to the mode and/or state of the electronic device 101.
  • the mode and/or the state may include a flex mode, a folded state, and/or an unfolded state of the electronic device 101.
  • the motion may include rotational motion.
  • the rotational motion may include roll, pitch, and/or yaw.
  • the roll may include rotation based on the direction in which the optical axis of the camera faces.
  • the pitch may include rotation about the y-axis, which is perpendicular to the direction in which the optical axis of the camera faces.
  • the yaw may include rotating in a direction toward the z-axis.
  • the electronic device 101 may acquire parameters related to the motion of the electronic device 101.
  • the electronic device 101 may identify a change from state 500 to state 510 based on parameters related to the motion of the electronic device 101. Based on the change to the state 510, the electronic device 101 controls the camera 215 provided on the side 251 opposite to the side 252 on which the camera 210 is provided to display video 310. ) can be obtained.
  • the electronic device 101 may obtain a time section including a change point from the state 500 to the state 510 within the state in which the video 310 is acquired.
  • the electronic device 101 may obtain metadata related to the time interval including the changed time point.
  • the electronic device 101 may store the video 310, including the metadata, in its memory.
  • the electronic device 101 may provide a guide for editing the video 310 while the video 310 is being edited.
  • the electronic device 101 may obtain a time interval including the time point at which the state 500 changes from the state 510 while acquiring the video 310. .
  • the electronic device 101 may obtain metadata related to the time interval.
  • the electronic device 101 may store the video 310 including the metadata in a memory.
  • the electronic device 101 may display information related to the time section on the screen while editing the video 310 including the metadata.
  • the electronic device 101 may enhance the user experience of the electronic device 101 by displaying information related to the time period while editing the video 310.
  • FIG. 6 illustrates an example of a state of use of an electronic device for guiding editing of a video, according to an embodiment.
  • the electronic device of FIG. 6 may be an example of the electronic device 101 of FIGS. 1, 2A, 2B, 3, 4, and/or 5.
  • the operations of FIG. 6 may be executed by the processor 120 of FIG. 1 and/or FIG. 2B.
  • an electronic device displays a video (601, 602, 603, 604) obtained based on a sensor (e.g., sensor 220 of FIG. 2B). 310) may provide a state for performing at least one of editing or segmentation.
  • a sensor e.g., sensor 220 of FIG. 2B. 310
  • the state for editing and/or dividing the video 310 may be referred to as state 600 and/or state 610.
  • the electronic device may obtain information related to the motion of the electronic device while at least one subject 315 is identified.
  • An electronic device may obtain information related to the motion of the electronic device based on a sensor.
  • information related to the motion of the electronic device may be obtained based on an electrical signal obtained based on the sensor.
  • the electronic device may obtain information related to the motion based on an electrical signal obtained from at least one sensor.
  • the electronic device can identify whether the information related to the motion matches a specified motion.
  • the electronic device may identify whether the motion of the electronic device is a designated motion.
  • the electronic device may identify each of the time sections 601, 602, 603, and 604 based on the motion of the electronic device identified as matching the specified motion.
  • the electronic device may acquire time sections 601, 602, 603, and 604 based on an electrical signal obtained by at least one sensor (e.g., gyro sensor, acceleration sensor, hall sensor). there is.
  • at least one sensor e.g., gyro sensor, acceleration sensor, hall sensor.
  • Case 1 Includes increase/decrease section X O (change of direction)
  • Case 2 Includes increase/decrease section X O (change of direction)
  • Case 3 Includes increase/decrease section 20° to 80° O (change in position or direction)
  • Case 4 X 80° to 160° X
  • Case 5 X 160° to 180° X
  • an electronic device may identify a change in the size of an electrical signal acquired through a gyro sensor and/or an acceleration sensor.
  • the electronic device may identify the motion of the electronic device based on a change in the size of the electrical signal obtained through the gyro sensor and/or the acceleration sensor.
  • the electronic device may identify a change in the size of an electrical signal obtained based on a gyro sensor and/or an acceleration sensor.
  • the first case and/or the second case may be matched to the time interval 601.
  • the electronic device may identify motion of the electronic device based on a gyro sensor and/or an acceleration sensor.
  • the electronic device can identify that the motion matches a designated motion.
  • the designated motion may include the electronic device rotating by 90° in a counterclockwise direction (eg, direction (d) in FIG. 3).
  • the designated motion may include the electronic device rotating clockwise by 180° (eg, direction (b) of FIG. 3).
  • the tilted state may include a state in which the direction of the at least one subject exceeds a designated range while the electronic device acquires the at least one subject.
  • the electronic device may obtain information indicating a time section 601 based on the identified specified motion.
  • the electronic device may store metadata related to the time section 601 in the video 310.
  • the electronic device may display a guide to display information indicating the time section 601.
  • the electronic device may display a guide for displaying information representing the time section 601 on the screen, such as a status 600.
  • the electronic device may display a guide for suggesting division of the time section 601 on the screen.
  • the electronic device may store a video divided into the time section 601 as in state 610, based on an input accepting the division of the time section 601.
  • the electronic device may display a visual object on the screen to cancel an input accepting division.
  • the electronic device may restore the divided time section 601 based on an input to a visual object to cancel the input accepting the division.
  • the electronic device may acquire an electrical signal based on a gyro sensor and/or an acceleration sensor within the third case.
  • the electronic device includes a first housing (e.g., first housing 230 in FIG. 2A), a hinge assembly (e.g., hinge assembly 235 in FIG. 2A), and a second housing (e.g., FIG.
  • the angle between the second housing 240 of 2a can be identified.
  • the angle identified within the third case may fall within a range greater than 20° and less than 80°. Within this angle, the electronic device may be referred to as flex mode.
  • the electronic device may identify at least one subject 315 while acquiring the video 310 .
  • the electronic device may identify that identification of the at least one subject 315 within the video 310 has been stopped.
  • the electronic device may obtain a time interval including a point in time when identification of the at least one subject 315 was stopped, based on the interruption of identification of the at least one subject 315.
  • a time section including a point in time when identification of the at least one subject 315 was stopped may include a time section 602.
  • the electronic device may identify a change in an electrical signal acquired based on a Hall sensor within the fourth case.
  • the electronic device can identify the angle between the first housing, the hinge assembly, and the second housing.
  • the angle identified within the fourth case may fall within a range greater than 80° and less than 160°.
  • the electronic device may obtain the time section 603 and/or the time section 604.
  • the time section 603 and/or the time section 604 may include a point in time at which identification of at least one subject 315 is stopped from when the at least one subject 315 is identified.
  • the electronic device may display a guide for dividing the time section 603.
  • the electronic device may acquire an electrical signal through a Hall sensor within the fifth case.
  • the electronic device can identify the state and/or mode of the electronic device.
  • the electronic device may identify that the electronic device changes from the flex mode to the unfolded state.
  • the electronic device may obtain a time interval including the time point at which the flex mode changes to the unfolded state.
  • the electronic device may store metadata including the time section in the video 310.
  • the electronic device may obtain information related to the time sections 601, 602, 603, and 604 and store it together with the video 310.
  • the electronic device may display a visual object for guiding the time sections 601, 602, 603, and 604 within a state for editing and/or dividing the video 310.
  • the electronic device can receive input about the visual object.
  • the electronic device may edit and/or divide at least some of the time sections 601, 602, 603, and 604 based on receiving an input for the visual object.
  • the electronic device edits and/or divides at least some of the time sections 601, 602, 603, and 604, and then edits and/or divides the time sections 601, 602, 603, and 604. At least part of it can be restored.
  • the electronic device corresponds to each of the time sections 601, 602, 603, and 604 based on obtaining information related to each of the time sections 601, 602, 603, and 604. At least a portion of the video 310 may be divided.
  • the electronic device may store the divided video 310 and/or metadata related to the division based on dividing at least a portion of the video 310.
  • the electronic device may provide a guide for editing and/or dividing the time sections 601, 602, 603, and 604 included in the video 310.
  • the electronic device can enhance the user experience of the electronic device by providing a guide matching the time sections 601, 602, 603, and 604.
  • Figure 7 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 7 may be an example of the electronic device 101 of FIGS. 1, 2A, 2B, 3, 4, and/or 5, and/or the electronic device of FIG. 6.
  • the operations of FIG. 7 may be executed by processor 120 of FIG. 1 and/or FIG. 2B.
  • an electronic device may receive a shooting input.
  • the electronic device may control at least one camera based on the shooting input.
  • the electronic device may acquire video (eg, video 310 of FIGS. 3 to 6) by controlling the at least one camera.
  • the electronic device may acquire an electrical signal using a sensor (eg, sensor 220 in FIG. 2B) while acquiring the video.
  • the electronic device uses the sensor to identify the angle between the first housing (e.g., the first housing 230 in FIG. 2A) and the second housing (e.g., the second housing 240 in FIG. 2B). You can.
  • the electronic device may identify the mode and/or state of the electronic device based on the identified angle. Modes and/or states of an electronic device may be referred to as flex mode, unfolded state, and/or folded state. According to one embodiment, the electronic device may identify that the angle exceeds a specified range.
  • the electronic device may identify an angle between the first housing and the second housing that changes beyond a specified range. According to one embodiment, the electronic device may obtain information related to the angle based on the fact that the angle exceeds a specified range. Based on the identified angle that changes beyond the specified range, the electronic device may obtain information indicating a time section including the point in time when the angle exceeds the specified range.
  • the electronic device may identify at least one subject (eg, at least one subject 315 in FIG. 3) in the video based on the identified angle. For example, the electronic device may identify at least one subject in the video based on at least one of the mode and/or state of the electronic device identified based on the angle.
  • the electronic device may identify the location of the at least one subject in the video, based on the identified at least one subject. For example, the electronic device may identify that the location of the at least one subject is included in a designated portion.
  • the electronic device may identify at least one subject included in a designated portion of the video. For example, the electronic device may identify the point in time at which the at least one subject is identified within the designated portion, based on the identification of the at least one subject included within the designated portion of the video. The electronic device may obtain information indicating a time interval including the time point at which the at least one subject was identified within a designated portion. Based on obtaining information representing the time section, the electronic device may store metadata related to the information in a memory (e.g., memory 130 in FIGS. 1 and/or 2B) together with the video. .
  • a memory e.g., memory 130 in FIGS. 1 and/or 2B
  • the electronic device may identify the motion of the electronic device based on a sensor that is different from the sensor for identifying the angle in operation 701.
  • the motion may be related to an electrical signal obtained based on an acceleration sensor and/or a gyro sensor.
  • the electronic device may obtain at least one of the magnitude or direction of acceleration (or force) acting on the electronic device based on an acceleration sensor and/or a gyro sensor.
  • the electronic device may identify the motion of the electronic device based on at least one of the magnitude or direction of acceleration (or force) acting on the electronic device.
  • the electronic device may obtain metadata indicating a time section including the time point identified as the designated motion and store it together with the video.
  • the electronic device may display a visual object to indicate a time section included in the metadata.
  • the visual object may receive input for dividing or editing the time interval.
  • the electronic device may perform an operation matching the input.
  • the electronic device may segment at least a portion of the video based on receiving the input.
  • the electronic device may edit at least part of the video based on receiving the input.
  • editing at least a portion of the video may include changing the orientation in which the video is displayed.
  • the electronic device may identify the angles of the first housing, the hinge assembly, and the second housing using a sensor while acquiring video.
  • the electronic device may identify at least one subject based on identification of the angle that changes beyond a designated range.
  • the electronic device may obtain information indicating a time interval including a point in time when the at least one subject was identified within a designated portion.
  • the electronic device may display a visual object related to information representing the time section within the editing state of the video.
  • the electronic device may enhance the user experience of the electronic device by displaying the visual object within the editing state.
  • Figure 8 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 8 may be an example of the electronic device 101 of FIGS. 1, 2A, 2B, 3, 4, and/or 5, and the electronic device of FIGS. 6 and/or 7. .
  • the operations of FIG. 8 may be executed by the processor 120 of FIG. 1 and/or FIG. 2B.
  • an electronic device may receive a photography input.
  • the electronic device may control at least one camera (eg, camera 210 in FIG. 2A) based on the shooting input.
  • the electronic device may acquire video (eg, video 310 of FIGS. 3, 4, 5, and/or 6) by controlling the at least one camera.
  • the electronic device may identify motion of the electronic device using at least one sensor (eg, sensor 220 of FIG. 2B) while acquiring the video.
  • the electronic device may obtain at least one of the magnitude or direction of acceleration (or force) acting on the electronic device using the at least one sensor.
  • the electronic device may identify the motion of the electronic device based on obtaining at least one of the magnitude or direction of the acceleration (or force).
  • the electronic device uses the at least one sensor to detect a first housing (e.g., first housing 230 in FIG. 2A), a hinge assembly (e.g., hinge assembly 235 in FIG. 2a), and The angle of the second housing (eg, the second housing 240 in FIG. 2A) can be identified.
  • the motion of the electronic device may be related to a mode and/or state of the electronic device.
  • the motion of the electronic device may include a flex mode, an unfolded state, and/or a folded state.
  • the electronic device may identify that the motion is a designated motion.
  • the designated motion may be for dividing the video.
  • the electronic device may identify a designated motion for dividing the video. For example, the electronic device may identify a motion of the electronic device that matches one of the specified motions. The electronic device may identify the location of at least one subject included in the video based on identification of a motion of the electronic device that matches one of the specified motions. For example, the electronic device may identify that the location of the at least one subject is separated by a distance less than a specified distance from the boundary line (or edge) of the video. The electronic device may identify a time section in which the location of the at least one subject or one of the specified motions is identified.
  • the electronic device may obtain metadata including a time interval in which one of the specified motions is identified, or the location of at least one subject.
  • the electronic device may identify the direction of the at least one subject.
  • the electronic device may obtain metadata including the direction of the at least one subject based on identification of the direction of the at least one subject.
  • the electronic device may obtain metadata including a time interval in which one of the specified motions is identified, the location of at least one subject, the direction of at least one subject, or a combination thereof.
  • the electronic device may store the video including the metadata in a memory (eg, memory 130 of FIG. 1 and/or FIG. 2B).
  • an electronic device may display information related to metadata while editing a video.
  • the electronic device may display a visual object to guide editing and/or segmentation of the video while displaying information related to the metadata.
  • the electronic device can receive input about the visual object.
  • the electronic device may perform an operation matched to the visual object based on receiving an input about the visual object.
  • the operation matched to the visual object may include at least one of dividing or rotating at least a portion of the video. However, it is not limited to this.
  • the electronic device may obtain metadata including a time interval in which one of the specified motions is identified, or the location of at least one subject.
  • the electronic device may provide a guide for editing (or dividing) a video including the metadata.
  • the electronic device can enhance the user experience of the electronic device by providing the guide.
  • Figure 9 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 9 is one of the electronic devices 101 of FIGS. 1, 2A, 2B, 3, 4, and/or 5, and the electronic devices of FIGS. 6, 7, and/or 8. Yes it could be.
  • the operations of FIG. 9 may be executed by the processor 120 of FIG. 1 and/or FIG. 2B.
  • an electronic device may acquire video through a camera (eg, camera 210 of FIG. 2A). While acquiring the video, the electronic device may acquire the time section of the acquired video using at least one sensor (eg, sensor 220 of FIG. 2B). For example, the time period may be related to a change in an electrical signal obtained by the at least one sensor.
  • the electronic device may identify motion of the electronic device based on a change in the electrical signal obtained by the at least one sensor.
  • the electronic device can identify whether the motion of the electronic device is a designated motion.
  • the designated motion may be related to the magnitude or direction of an acceleration (or force) acting on the electronic device.
  • the designated motion may be related to at least one of a mode or state of the electronic device.
  • the mode of the electronic device may include flex mode.
  • the state of the electronic device may include an unfolded state or a folded state.
  • an electronic device may use at least one sensor to obtain a time section in which a specified motion is identified.
  • the electronic device may identify at least one subject (eg, at least one subject 315 in FIG. 3) within the time interval in which the specified motion is identified.
  • the electronic device can identify the location, direction, or combination of the at least one subject.
  • the electronic device may obtain metadata related to the location, direction, or combination of the at least one subject.
  • the electronic device may acquire metadata related to a time interval acquired using at least one sensor.
  • the electronic device may acquire metadata related to the location, direction, or combination of at least one subject.
  • the electronic device can acquire video including the metadata.
  • the electronic device may store the video including the metadata in a memory (eg, memory 130 of FIG. 1 and/or FIG. 2B).
  • the electronic device may edit (or split) a video including metadata.
  • the electronic device may display information related to the metadata while editing the video.
  • the information related to the metadata may be related to the location, direction, or a combination of at least one subject included in the video.
  • the information related to the metadata may be related to a change in an electrical signal obtained based on at least one sensor.
  • the information related to the metadata may include a time interval.
  • an electronic device may provide a guide for editing (or dividing) a video based on information related to metadata.
  • the electronic device may provide a guide for editing (or dividing) the video within a time section while editing the video.
  • the time interval may include a point in time when the location of at least one subject is identified as being less than a specified distance from the boundary line of the video.
  • the time section may include a point in time when the direction of at least one subject is identified as exceeding a specified range.
  • the time section may include a point in time when an electrical signal obtained based on at least one sensor of the electronic device changes beyond a specified range.
  • the electronic device may provide a guide for editing (or dividing) a video.
  • the electronic device may display a visual object for editing (or dividing) the video while providing a guide for editing the video.
  • Editing the video may include rotating the direction of the video.
  • Editing the video may include dividing a portion that matches a time section included in metadata.
  • an electronic device may receive an input for a visual object for video editing. For example, the electronic device may perform an operation matching the visual object for editing based on an input for the visual object for editing. The electronic device may receive an input for a visual object for completing editing that is different from the visual object for editing the video. The electronic device may complete (or terminate) editing of the video based on receiving an input for a visual object for completion of the editing.
  • the electronic device may store the edited video, for example, after completing editing the video.
  • the electronic device may store in the memory a video in which a time section related to the metadata of the video has been edited (or divided).
  • the electronic device may use at least one sensor to identify whether the motion of the electronic device matches the specified motion.
  • the electronic device can identify a time interval in which the motion of the electronic device matches a specified motion.
  • the electronic device can obtain metadata including the time interval.
  • the electronic device can obtain video including the metadata.
  • the electronic device may edit the video based on acquiring the video.
  • the electronic device, while editing the video may provide a guide for editing the video based on information related to the metadata.
  • the electronic device may enhance the user experience of the electronic device by providing the guide for editing the video.
  • an electronic device (e.g., the electronic device 101 of FIGS. 1, 2A, 2B, 3, 4, and/or 5) includes a first 1 housing (e.g., the first housing 230 in FIGS. 2A and/or 2B), a second housing (e.g., the second housing 240 in FIGS. 2A and/or 2B), the second housing ( A hinge assembly (e.g., the hinge assembly 235 of FIGS. 2A and/or 2B) rotatably coupling the first housing 240) to the first housing 230, the first housing 230, and the hinge.
  • An assembly, and a sensor for identifying the angle of the second housing e.g., sensor 220 in FIG.
  • the processor controls the at least one camera to obtain video (e.g., video 310 of FIGS. 3, 4, 5, and/or 6) based on a shooting input.
  • video e.g., video 310 of FIGS. 3, 4, 5, and/or 6
  • the processor may identify the magnitude of the rotational motion of the electronic device using the second sensor while acquiring the video.
  • the processor is configured to determine a time interval (e.g., time intervals 601, 602, 603, and 604 of FIG. 6) in which at least one of the angle changing beyond a specified range or the rotation motion exceeding a specified size is identified. Based on identification, information for dividing a portion corresponding to the time section within the video can be obtained.
  • a time interval e.g., time intervals 601, 602, 603, and 604 of FIG. 6
  • the processor generates information representing the time interval based on the identification of the at least one subject within the designated portion spaced less than a designated distance from a border line of the video. It can be obtained.
  • the electronic device may include a second sensor (e.g., sensor 220 in FIG. 2B, acceleration sensor 221 in FIG. 2B, and/or gyro sensor in FIG. 2B) that is different from the sensor that is the first sensor. (222)).
  • the processor may obtain the time section based on identification of the rotational motion of the electronic device through the second sensor.
  • the processor may obtain the time section, including a point in time when it is determined that the acceleration applied to the electronic device, obtained based on the second sensor, is within a specified range.
  • the processor may display a guide for displaying the information indicating the time section within the screen.
  • the processor includes a point in time at which an angle between the at least one subject and a boundary line of the video is identified as exceeding a specified threshold, based on which the angle is identified as exceeding the specified threshold. A time interval can be obtained.
  • the processor may obtain information for rotating and displaying the video within the time section including the time point identified as exceeding the specified threshold.
  • an electronic device may include memory (eg, memory 130 in FIGS. 1 and/or 2B).
  • the processor may store the video including metadata related to the information in the memory.
  • the electronic device has a second side (e.g., in FIGS. 2A and/or 2B) that is different from the at least one camera that is a first camera and is opposite to the first side. It may further include a second camera (eg, camera 215 in FIGS. 2A and/or 2B) provided on one side 252, and a second sensor that is different from the sensor that is the first sensor.
  • the processor within the state of controlling the first camera to acquire the video, identifies the at least one subject within the designated portion based on parameters related to the motion of the electronic device through the second sensor. Thus, the video can be obtained by controlling the second camera.
  • a method of an electronic device includes , based on a shooting input, one side (e.g., one side of FIG. 2a (e.g., the first housing 230 of FIG. 2a and/or FIG. 2b) of the electronic device 252)), in a state of acquiring video by controlling at least one camera (e.g., camera 210 of FIG. 2A and/or FIG. 2B) provided on the first housing 230 and the second housing It may include an operation of identifying the angle between the angles 240 using a sensor (e.g., the sensor 220 of FIG. 2B including the Hall sensor 223).
  • a sensor e.g., the sensor 220 of FIG. 2B including the Hall sensor 223
  • the method of the electronic device may include an operation of identifying the magnitude of rotational motion of the electronic device using the second sensor within the state of acquiring the video.
  • the method of the electronic device includes a time interval (e.g., time intervals 601, 602 of FIG. 6, Based on the identification of 603, 604)), it may include an operation of obtaining information for dividing a portion corresponding to the time section within the video.
  • the method of the electronic device determines the time interval based on identifying the at least one subject within the specified portion spaced less than a specified distance from a boundary line of the video. It may include an operation to obtain the information it represents.
  • the method of the electronic device includes a second sensor different from the first sensor (e.g., sensor 220 in FIG. 2B, acceleration sensor 221 in FIG. 2B, and/or gyro in FIG. 2B It may include an operation of acquiring the time section based on identification of the rotational motion of the electronic device through the sensor 222).
  • a second sensor different from the first sensor e.g., sensor 220 in FIG. 2B, acceleration sensor 221 in FIG. 2B, and/or gyro in FIG. 2B It may include an operation of acquiring the time section based on identification of the rotational motion of the electronic device through the sensor 222).
  • the method of the electronic device includes an operation of obtaining the time interval, including a point in time when the acceleration applied to the electronic device, obtained based on the second sensor, is identified as being within a specified range. may include.
  • the method of the electronic device may include displaying a guide for displaying the information indicating the time section within the screen while displaying a screen related to editing the video. .
  • the method of the electronic device identifies the angle between the at least one subject and a boundary line of the video as exceeding the specified threshold, based on the angle being identified as exceeding the specified threshold. It may include an operation of obtaining a time section including the point in time.
  • the method of the electronic device may include an operation of obtaining information for rotating and displaying the video within the time section including the time point identified as exceeding the specified threshold. .
  • the method of the electronic device includes storing the video, including metadata related to the information, in a memory (e.g., memory 130 in FIGS. 1 and/or 2B) may include.
  • a memory e.g., memory 130 in FIGS. 1 and/or 2B
  • the method of the electronic device includes, in a state of acquiring the video by controlling the at least one camera, which is a first camera, the at least one subject is identified within the designated portion, and Controlling a second camera provided on a second side opposite to the first side on which the first camera is provided, based on parameters related to the motion of the electronic device, through a second sensor that is different from the first sensor and the first sensor. This may include an operation of acquiring the video.
  • an electronic device (e.g., the electronic device 101 of FIGS. 1, 2A, 2B, 3, 4, and/or 5) includes the electronic device.
  • At least one sensor e.g., sensor 220, acceleration sensor 221, gyro sensor 222, and/or hall sensor 223 in FIG. 2B
  • at least one camera e.g. , the camera 210 in FIGS. 2A and/or 2B
  • a processor eg, the processor 120 in FIGS. 1 and/or 2B.
  • the processor controls the at least one camera to obtain video (e.g., video 310 of FIGS. 3, 4, 5, and/or 6) based on a shooting input.
  • the motion of the electronic device may be identified using the at least one sensor.
  • the processor based on the identification of the motion of the electronic device corresponding to one of the designated motions for segmenting the video, detects at least one subject included in the video (e.g., Figure 3, The location of at least one subject 315 of FIGS. 4, 5, and/or 6 may be identified.
  • the processor may obtain metadata including a time interval in which one of the specified motions is identified, or the location of the at least one subject.
  • the processor may identify that the direction of the at least one subject included in the video exceeds a specified range.
  • the processor may obtain metadata including the direction of the at least one subject based on determining that the direction of the at least one subject exceeds the specified range.
  • the processor may identify the motion of the electronic device by acquiring acceleration applied to the electronic device through the at least one sensor.
  • the processor may identify the motion of the electronic device by obtaining an angle between the first housing and the second housing of the electronic device.
  • the electronic device may include a memory.
  • the processor may store the metadata together with the video.
  • the processor may obtain the metadata including the location of the at least one subject based on the location of the at least one subject being less than a specified distance from a boundary line of the video. there is.
  • the processor may provide at least one guide among the time section corresponding to the metadata or the location of the at least one subject within a state of editing the video. there is.
  • a method of an electronic device includes , Based on the shooting input, control at least one camera (e.g., camera 210 in Figure 2A) to capture video (e.g., video 310 in Figures 3, 4, 5, and/or 6).
  • the operation may include identifying the motion of the electronic device using at least one sensor (eg, sensor 220 in FIG. 2B) for identifying the motion of the electronic device.
  • the method of the electronic device identifies the location of at least one subject included in the video based on identifying the motion of the electronic device corresponding to one of designated motions for segmenting the video. Can include actions.
  • the method of the electronic device may include an operation of acquiring metadata including a time interval in which one of the specified motions is identified, or the location of the at least one subject.
  • the method of the electronic device may include an operation of identifying that the direction of the at least one subject included in the video is a direction that exceeds a specified range.
  • the method of the electronic device may include an operation of obtaining metadata including the direction of the at least one subject based on identifying that the direction of the at least one subject exceeds the specified range. You can.
  • the method of using the electronic device may include identifying the motion of the electronic device by acquiring acceleration applied to the electronic device through the at least one sensor.
  • the method of the electronic device includes a first housing of the electronic device, a hinge assembly that couples the second housing to the first housing so as to be rotatable with respect to the first housing, and the second housing. It may include an operation of identifying the motion of the electronic device by obtaining the angle of .
  • the method of the electronic device may include storing the metadata together with the video.
  • the method of the electronic device includes the metadata including the location of the at least one subject based on the location of the at least one subject being less than a specified distance from the boundary line of the video. It may include an operation to obtain.
  • the method of the electronic device provides, within a state of editing the video, a guide to at least one of the time section corresponding to the metadata or the location of the at least one subject.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, electronic devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used negatively.
  • a module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • One or more embodiments of this document may be stored in a storage medium (e.g., internal memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including instructions.
  • a processor e.g., processor 120
  • a device e.g., electronic device 101
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • a method according to one or more embodiments disclosed in this document may be provided and included in a computer program product.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component e.g., a module or program of the above-described components may include a single or a plurality of entities, and some of the plurality of entities may be provided separately to other components. It may be possible. According to one or more embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or It may be omitted, or one or more other operations may be added.

Abstract

전자 장치는, 제1 하우징, 제2 하우징, 제1 센서, 제2 센서, 상기 제1 하우징 상에 제공된 적어도 하나의 카메라 및 프로세서를 포함하고, 상기 프로세서는, 상기 적어도 하나의 카메라를 제어하여 비디오를 획득하는 상태 내에서, 상기 제1 센서를 이용하여, 상기 제1 하우징 및 상기 제2 하우징 사이의 각도를 식별하고, 상기 비디오를 획득하는 상태 내에서, 상기 제2 센서를 이용하여, 상기 전자 장치의 회전 모션의 크기를 식별하고, 및 지정된 범위를 초과하여 변화하는 상기 각도, 또는 지정된 크기를 초과하는 상기 회전 모션의 상기 크기 중 적어도 하나가 식별된 시간 구간에 대응하는, 상기 비디오의 일부분을 분할하기 위한 정보를 획득하도록, 구성된다.

Description

비디오를 획득하는 동안 메타 데이터를 획득하는 전자 장치 및 그 방법
하나 이상의 실시예들은, 전자 장치에 의해 획득된 비디오의 메타 데이터를 획득하는 전자 장치 및 그 방법에 관한 것이다.
전자 장치는, 적어도 하나의 카메라를 포함할 수 있다. 전자 장치는, 상기 적어도 하나의 카메라를 제어하여, 비디오를 획득할 수 있다. 전자 장치의 적어도 하나의 카메라는, 인쇄 회로 기판 상에 실장되어 모듈의 형태로 제작될 수 있다.
본 개시의 일측에 따르면, 제1 하우징, 제2 하우징, 제1 센서, 제2 센서, 상기 제1 하우징 상에 제공된 적어도 하나의 카메라 및 프로세서를 포함하고, 상기 프로세서는, 상기 적어도 하나의 카메라를 제어하여 비디오를 획득하는 상태 내에서, 상기 제1 센서를 이용하여, 상기 제1 하우징 및 상기 제2 하우징 사이의 각도를 식별하고, 상기 비디오를 획득하는 상태 내에서, 상기 제2 센서를 이용하여, 상기 전자 장치의 회전 모션의 크기를 식별하고, 및 지정된 범위를 초과하여 변화하는 상기 각도, 또는 지정된 크기를 초과하는 상기 회전 모션의 상기 크기 중 적어도 하나가 식별된 시간 구간에 대응하는, 상기 비디오의 일부분을 분할하기 위한 정보를 획득하도록, 구성될 수 있다.
본 개시의 다른 일측에 따르면, 전자 장치(electronic device)에 의해 수행되는 방법은, 상기 전자 장치의 제1 하우징 상에 제공된 적어도 하나의 카메라를 제어하여 비디오를 획득하는 상태 내에서, 제1 센서를 이용하여, 상기 제1 하우징, 및 상기 제2 하우징 사이의 각도를 식별하는 동작, 상기 비디오를 획득하는 상태 내에서, 상기 제2 센서를 이용하여, 상기 전자 장치의 회전 모션의 크기를 식별하는 동작 및 지정된 범위를 초과하여 변화하는 상기 각도, 또는 지정된 크기를 초과하는 상기 회전 모션의 상기 크기 중 적어도 하나가 식별된 시간 구간에 대응하는, 상기 비디오의 일부분을 분할하기 위한 정보를 획득하는 동작을 포함할 수 있다.
본 개시의 다른 일측에 따르면, 전자 장치는 상기 전자 장치의 모션을 식별하도록 구성된 적어도 하나의 센서, 적어도 하나의 카메라, 및 프로세서를 포함하고, 상기 프로세서는, 상기 적어도 하나의 센서를 이용하여, 상기 적어도 하나의 카메라를 제어하여 비디오를 획득하는 상태 내에서, 상기 전자 장치의 모션을 식별하고, 촬영 입력에 기반하여, 상기 비디오를 분할하기 위한 지정된 모션들 중 어느 하나에 대응하는 상기 전자 장치의 상기 식별된 모션에 기반하여 상기 비디오의 적어도 하나의 피사체의 위치를 식별하고, 및 상기 적어도 하나의 피사체의 위치 또는 상기 지정된 모션이 식별된 시간 구간을 포함하는 제1 메타 데이터를 획득하도록, 구성될 수 있다.
일 실시 예(an embodiment)에 따른, 전자 장치(electronic device)는, 제1 하우징, 제2 하우징, 상기 제1 하우징에 대하여 회전 가능하도록(rotatably) 상기 제2 하우징을 상기 제1 하우징에 결합하는 힌지 어셈블리, 상기 제1 하우징, 상기 힌지 어셈블리, 및 상기 제2 하우징의 각도를 식별하기 위한 센서, 상기 제1 하우징의 일 면 상에 배치된 적어도 하나의 카메라, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 적어도 하나의 카메라를 제어하여 비디오를 획득하는 상태 내에서, 상기 센서를 이용하여 상기 각도를 식별할 수 있다. 상기 프로세서는, 상기 비디오를 획득하는 상태 내에서, 상기 제2 센서를 이용하여, 상기 전자 장치의 회전 모션의 크기를 식별할 수 있다. 상기 프로세서는, 지정된 범위를 초과하여 변화하는 상기 각도, 또는 지정된 크기를 초과하는 상기 회전 모션의 크기 중 적어도 하나가 식별된 시간 구간을 식별하는 것에 기반하여, 상기 비디오 내에서 상기 시간 구간에 대응하는 일부분을 분할하기 위한 정보를 획득할 수 있다.
일 실시 예에 따른, 전자 장치의 방법은, 촬영 입력에 기반하여, 상기 전자 장치의 제1 하우징의 일 면 상에 배치된 적어도 하나의 카메라를 제어하여 비디오를 획득하는 상태 내에서, 상기 제1 하우징, 상기 제1 하우징에 대하여 회전 가능하도록 제2 하우징을 상기 제1 하우징에 결합하는 힌지 어셈블리, 및 상기 제2 하우징의 각도를 식별하기 위한 센서를 이용하여 상기 각도를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 비디오를 획득하는 상태 내에서, 상기 제2 센서를 이용하여, 상기 전자 장치의 회전 모션의 크기를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 지정된 범위를 초과하여 변화하는 상기 각도, 또는 지정된 크기를 초과하는 상기 회전 모션의 크기 중 적어도 하나가 식별된 시간 구간을 식별하는 것에 기반하여, 상기 비디오 내에서 상기 시간 구간에 대응하는 일부분을 분할하기 위한 정보를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 전자 장치는, 상기 전자 장치의 모션을 식별하기 위한 적어도 하나의 센서, 적어도 하나의 카메라, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 촬영 입력에 기반하여, 상기 적어도 하나의 카메라를 제어하여 비디오를 획득하는 상태 내에서, 상기 적어도 하나의 센서를 이용하여 상기 전자 장치의 상기 모션을 식별할 수 있다. 상기 프로세서는, 상기 비디오를 분할하기 위한(for segmenting) 지정된 모션들 중 어느 하나에 대응하는 상기 전자 장치의 상기 모션을 식별하는 것에 기반하여, 상기 비디오 내에 포함된 적어도 하나의 피사체의 위치를 식별할 수 있다. 상기 프로세서는, 상기 지정된 모션들 중 어느 하나가 식별된 시간 구간, 또는 상기 적어도 하나의 피사체의 상기 위치를 포함하는 메타 데이터를 획득할 수 있다.
일 실시 예에 따른, 전자 장치의 방법에 있어서, 촬영 입력에 기반하여, 적어도 하나의 카메라를 제어하여 비디오를 획득하는 상태 내에서, 상기 전자 장치의 모션을 식별하기 위한 적어도 하나의 센서를 이용하여 상기 전자 장치의 상기 모션을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 비디오를 분할하기 위한 지정된 모션들 중 어느 하나에 대응하는 상기 전자 장치의 상기 모션을 식별하는 것에 기반하여, 상기 비디오 내에 포함된 적어도 하나의 피사체의 위치를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 지정된 모션들 중 어느 하나가 식별된 시간 구간, 또는 상기 적어도 하나의 피사체의 상기 위치를 포함하는 메타 데이터를 획득하는 동작을 포함할 수 있다.
도 1은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도(block diagram)의 일 예를 도시한다.
도 2a는, 일 실시 예에 따른, 전자 장치의 정면도와 배면도의 일 예를 도시한다.
도 2b는, 일 실시 예에 따른, 전자 장치의 블록도의 일 예를 도시한다.
도 3은, 일 실시 예에 따른, 전자 장치의 블록도의 일 예를 도시한다.
도 4는, 일 실시 예에 따른, 전자 장치의 모션을 식별하여 획득된 비디오의 일 예를 도시한다.
도 5는, 일 실시 예에 따른, 전자 장치의 모션을 식별하여 획득된 비디오의 일 예를 도시한다.
도 6은, 일 실시 예에 따른, 비디오의 편집을 가이드하기 위한 전자 장치의 사용 상태의 일 예를 도시한다.
도 7은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 8은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 9는, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 1은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도(block diagram)의 일 예를 도시한다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted Boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
하나 이상의 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 제공되거나 또는 그에 인접하고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 제공되거나 또는 그에 인접하고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
본 문서에 개시된 하나 이상의 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 하나 이상의 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 하나 이상의 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 하나 이상의 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 하나 이상의 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
하나 이상의 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 제공될 수도 있다. 하나 이상의 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 하나 이상의 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2a는, 일 실시 예에 따른, 전자 장치의 정면도와 배면도의 일 예를 도시한다. 도 2b은, 일 실시 예에 따른, 전자 장치의 블록도의 일 예를 도시한다. 도 2a의 전자 장치(101)는, 도 1의 전자 장치(101)의 일 예일 수 있다.
도 2a를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 제1 하우징(230), 및 제2 하우징(240)이 힌지 어셈블리(235)에 의해, 완전히(fully) 펼쳐진(folded out) 언폴딩(unfolding) 상태를 제공할 수 있다. 예를 들어, 상기 언폴딩 상태는, 제1 하우징(230)이 디스플레이(250)를 포함하는 일 면이 제2 하우징(240)이 디스플레이(250)를 포함하는 일 면에 대응하는 상태를 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 일 면(251) 상에 제공된 카메라(215), 일 면(252) 상에 제공된 카메라(210)를 포함할 수 있다. 전자 장치(101)는, 제1 하우징(230), 제2 하우징(240), 상기 제2 하우징(240)을 상기 제1 하우징(230)에 회전 가능하도록(rotatably) 결합하는 힌지 어셈블리(235)를 포함할 수 있다. 전자 장치(101)는, 디스플레이(250)를 포함할 수 있다. 하지만, 이에 제한되지 않는다.
일 실시 예에 따른, 전자 장치(101)의 디스플레이(250)는, 프로세서(예, 도 1의 프로세서(120))와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 상기 디스플레이(250)는, FPD(flat panel display), 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는, LCD(liquid crystal display), PDP(plasma display panel), 및/또는 하나 이상의 LED(light emitting diode)를 포함할 수 있다. 상기 LED는, OLED(organic light emitting diode)를 포함할 수 있다.
예를 들어, 디스플레이(250)는, 상기 디스플레이(250)를 보호하기 위한 커버 패널(C-panel, 또는 cover panel), 베이스 기판, 베이스 기판에 형성된 박막 트랜지스터(TFT, thin film transistor) 레이어로부터 인가되는 전압에 기반하여 발광되는 픽셀들을 포함하는 픽셀 레이어(또는 유기 발광(organic light emitting diode) 레이어), 또는 상기 픽셀 레이어 상에 제공되는 편광 레이어 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 기판은 복수의 레이어들로 형성될 수 있다.
일 실시 예에 따른, 전자 장치(101)의 디스플레이(250)는, 디스플레이(250) 상의 외부 객체(예, 사용자의 손가락)를 탐지하기 위한 센서(예, TSP(touch sensor panel))를 포함할 수 있다. 예를 들어, TSP에 기반하여, 전자 장치(101)는, 디스플레이(250)와 접촉하거나, 또는 디스플레이(250) 상을 부유하는(floating) 외부 객체를 탐지할 수 있다. 상기 외부 객체를 탐지하는 것에 응답하여, 전자 장치(101)는, 디스플레이(250) 내에 표시되고 있는 시각적 객체들 중에서 상기 외부 객체의 디스플레이(250) 상에서의 위치에 대응하는 특정 시각적 객체(예, 화면)와 관련된 기능을 실행할 수 있다.
도 2b를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 프로세서(120), 메모리(130), 카메라(210), 또는 센서(220) 중 적어도 하나를 포함할 수 있다. 프로세서(120), 메모리(130), 카메라(210), 및 센서(220)는, 통신 버스(a communication bus)와 같은 전자 소자(electronic component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 예를 들어, 상기 센서(220)는, 가속도 센서(221), 자이로 센서(222), 또는 홀 센서(223) 중 적어도 하나를 포함할 수 있다. 상이한 블록들에 기반하여 도시되었으나, 실시 예가 이에 한정되는 것은 아니다. 예를 들어, 도 2b에 도시된 하드웨어 컴포넌트 중 일부분(예, 프로세서(120), 메모리(130), 카메라(210), 및/또는 센서(220))이 SoC(system on a chip)와 같이 단일 집적 회로(single integrated circuit)에 포함될 수 있다. 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입, 및/또는 개수는, 도 2b에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는, 도 2b에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. 프로세서(120), 메모리(130), 카메라(210), 및/또는 센서(220)는, 단수로 도시되었으나 복수일 수 있다.
일 실시 예에 따른, 전자 장치(101)의 프로세서(120)는, 도 1의 프로세서(120)의 적어도 일부에 상응할 수 있다. 일 실시 예에 따른, 프로세서(120)는, 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), AP(application processor), Micom(micro-computer, 및/또는 micom controller), 및/또는 CPU(central processing unit)을 포함할 수 있다. 프로세서(120)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(120)는, 듀얼 코어(dual core), 쿼드 코어(quad core), 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다. 예를 들어, 프로세서(120)는, 싱글 코어(single core)와 같은 단일 코어 프로세서의 구조를 가질 수 있다.
일 실시 예에 따른, 전자 장치(101)의 메모리(130)는, 프로세서(120)에 입력, 및/또는 출력되는 데이터, 및/또는 인스트럭션들을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 예를 들어, 메모리(130)는, RAM(random-access memory)와 같은 휘발성 메모리(volatile memory), 및/또는 ROM(read-only memory)와 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 예를 들어, 휘발성 메모리는, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM(pseudo RAM) 중 적어도 하나를 포함할 수 있다. 예를 들어, 비휘발성 메모리는, PROM(programmable ROM), EPROM(erasable PROM), EEPROM(electrically erasable PROM) 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)의 메모리(130) 내에서, 프로세서(120)가 데이터를 수행할 동작을 나타내는 하나 이상의 인스트럭션들이 저장될 수 있다. 인스트럭션들의 집합은, 펌웨어, 운영체제, 프로세스, 루틴, 서브-루틴, 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(101), 및/또는 전자 장치(101)의 프로세서(120)는, 어플리케이션의 형태로 배포된 복수의 인스트럭션들의 집합(set of a plurality of instructions)을 실행하여, 도 8 내지 도 9의 동작들 중 적어도 하나를 수행할 수 있다.
일 실시 예에 따른, 전자 장치(101)의 카메라(210)는, 화각(또는 FoV)이 상이한 카메라들을 포함할 수 있다. 예를 들어, 전자 장치(101)는, 촬영 입력(a shooting input)에 기반하여, 상기 카메라(210)를 통해 비디오를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 카메라(210)를 제어하여 비디오를 획득할 수 있다. 상기 비디오는, 복수의 프레임들로 구성될 수 있다. 상기 비디오는, 카메라(210)를 통해 획득된 이미지들이 연속(또는 순차)로 구성된 것일 수 있다.
일 실시 예에 따른, 전자 장치(101)의 센서(220)는, 전자 장치(101)의 상태(예, 폴딩 상태, 또는 언폴딩 상태), 또는 외부의 환경 상태를 감지할 수 있다. 전자 장치(101)는, 센서(220)로부터, 상기 감지된 상태에 대응하는 전기 신호, 또는 데이터 값을 생성할 수 있다. 예를 들어, 센서(220)는, 적어도 하나의 가속도 센서(221), 자이로 센서(222), 및/또는 홀 센서(223)를 포함할 수 있다.
예를 들어, 상기 센서(220)는, 전자 장치(101)의 모션을 탐지하기 위한 것일 수 있다. 예를 들어, 상기 센서(220)에 기반하여, 전자 장치(101)는, 제1 하우징(230), 힌지 어셈블리(235), 및 제2 하우징(240) 사이의 각도를 탐지할 수 있다. 예를 들어, 전자 장치(101)는, 홀 센서(223)에 기반하여, 상기 각도를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 센서(220)에 기반하여, 전자 장치(101)의 상태를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 제1 하우징(230)의 일 면(251-1)의 방향(261), 및 제2 하우징(240)의 일 면(251-2)의 방향(262)이 나란한 언폴딩 상태를 식별할 수 있다. 예를 들어, 전자 장치는, 제1 하우징(230)의 일 면(251-1)의 방향(261), 및 제2 하우징(240)의 일 면(251-2)의 방향(262)이 반대인 폴딩 상태를 식별할 수 있다.
예를 들어, 전자 장치(101)는, 상기 제1 하우징(230)의 일 면, 및 상기 제2 하우징(240)의 일 면이 이루는 각도가 지정된 범위 내로 식별된 플렉스 모드(flex mode)를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 플렉스 모드를 식별한 동안, 디스플레이(예, 도 2a의 디스플레이(250))의 화면 내에 표시하는 사용자 인터페이스(UI, user interface)를 변경할 수 있다.
예를 들어, 전자 장치(101)는, 제1 하우징(230)의 일 면(251-1)의 방향(253), 및 제2 하우징(240)의 일 면(251-2)의 방향(254) 사이의 각도를, 홀 센서(223)를 이용하여 식별할 수 있다. 전자 장치(101)는, 상기 일 면(251-1), 및 상기 일 면(251-2) 사이의 각도에 기반하여, 상기 전자 장치(101)의 모드, 및/또는 상태를 식별할 수 있다.
일 실시 예에 따른, 전자 장치(101)의 센서(220)는, 전자 장치(101)의 물리적인 움직임을 측정하기 위한 가속도 센서(221), 및/또는 자이로 센서(222)를 포함할 수 있다. 예를 들어, 가속도 센서(221)는, 서로 수직을 이루는 복수의 지정된 축들(예, x 축, y 축, z 축) 각각에서 측정된 중력 가속도의 크기를 나타내는 전기적 정보를 출력할 수 있다. 예를 들어, 전자 장치(101)의 프로세서(120)는, 가속도 센서(221)로부터 출력되는 전기적 정보에 기반하여, 물리적인 공간 내에서의 전자 장치(101)의 모션을 측정할 수 있다. 전자 장치(101)가 측정하는 상기 모션은, 가속도 센서(221)에 의해 측정되는 전자 장치(101)의 방향(orientation), 및/또는 전자 장치(101)의 형태를 나타낼 수 있다. 전자 장치(101)는, 측정된 모션에 기반하여, 전자 장치(101)의 모드를 결정할 수 있다. 전자 장치(101)는, 상기 결정된 모드에 기반하여, 디스플레이 내에 표시되는 화면의 크기 또는 위치를 조절할 수 있다. 예를 들어, 전자 장치(101)는, 가속도 센서(221)와 구별되는 다른 센서(예, 자이로 센서(222), 및/또는 홀 센서(223))를 이용하여 전자 장치(101)의 형태를 나타내는 전기적 정보를 측정할 수 있다. 예를 들어, 전자 장치(101)는, 가속도 센서(221)를 이용하여, 전자 장치(101)의 모션에 기반하여, 디스플레이 상에, 적어도 하나의 화면이 표시되는 부분을 식별할 수 있다.
일 실시 예에 따른, 홀 센서(223)는, 하나 이상의 자석들, 및/또는 하나 이상의 자기 센서들을 포함할 수 있다. 홀 센서(223)에 포함된 상기 하나 이상의 자석들, 및/또는 상기 하나 이상의 자기 센서들은, 전자 장치(101) 내 상이한 위치들에 제공될 수 있다. 상기 하나 이상의 자석들, 및/또는 상기 하나 이상의 자기 센서들의 전자 장치(101) 내에서의 위치 관계는, 전자 장치(101)의 형태에 따라 변경될 수 있다. 전자 장치(101)는, 상기 위치 관계의 변경을, 상기 하나 이상의 자기 센서들을 통해, 측정할 수 있다. 상기 위치 관계의 변경은, 상기 하나 이상의 자석들에 의해 형성된 자계의 변화를 야기할 수 있다. 전자 장치(101)는, 홀 센서(223)를 이용하여, 상기 자계의 변화를 나타내는 전기적 신호를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 홀 센서(223)로부터 획득한 상기 전기적 신호를 이용하여, 전자 장치(101)의 모션, 또는 상태(예, 폴딩 상태, 또는 언폴딩 상태)를 구별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 홀 센서(223)로부터, 전자 장치(101)의 상태를 나타내는 데이터를 수신할 수 있다. 예를 들어, 홀 센서(223)는, 디스플레이의 형태를 나타내는 데이터를 출력할 수 있다. 상기 디스플레이는 플렉서블 디스플레이로 참조될 수 있다. 예를 들어, 디스플레이의 형태는, 폴딩 축(237)에 의해 접혀지거나, 또는 펼쳐짐에 따라 변경될 수 있다. 예를 들어, 홀 센서(223)는, 디스플레이의 형태를 나타내는 상이한 데이터를 출력할 수 있다. 예를 들어, 전자 장치(101)는, 상기 상이한 데이터에 기반하여, 전자 장치(101)의 제1 하우징(230), 및 제2 하우징(240) 사이의 각도를 식별할 수 있다. 전자 장치(101)는, 상기 식별된 각도에 기반하여, 디스플레이의 일 부분 내에 화면을 표시할 수 있다.
일 실시 예에 따른, 전자 장치(101)의 자이로 센서(222)는, 전자 장치(101)의 회전 속도(예, 지정된 축들에 대한 전자 장치(101)의 각속도)와 관련된 전기적 신호를 획득할 수 있다. 전자 장치(101)는, 상기 자이로 센서(222)를 통해 획득된 전기적 신호에 기반하여, 전자 장치(101)의 모션을 식별할 수 있다. 전자 장치(101)는, 상기 식별된 모션에 기반하여, 카메라(210)를 통해 획득하는 비디오 내에 상기 모션과 관련된 메타 데이터를 저장할 수 있다. 이하에서, 전자 장치(101)의 모션은, 회전 속도와 관련된 일 모션(a motion)을 포함할 수 있다. 예를 들어, 상기 일 모션은, 전자 장치(101)의 회전 모션일 수 있다. 예를 들어, 전자 장치(101)는, 상기 회전 모션의 크기를 식별할 수 있다. 예를 들어, 상기 회전 모션의 크기는, 상기 전자 장치(101)에 포함된 센서(220)에 기반하여 획득된 데이터에 기반하여 식별될 수 있다. 예를 들어, 상기 회전 모션의 크기는, 상기 전자 장치(101) 내부, 또는 외부에 형성된 일 축(a axis)를 기준으로 회전하는 전자 장치(101)의 각속도의 크기와 관련될 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 촬영 입력에 기반하여, 카메라(210)를 제어하여 비디오를 획득할 수 있다. 전자 장치(101)는, 상기 비디오를 획득하는 상태 내에서, 센서(220)를 이용하여 제1 하우징(230), 힌지 어셈블리(235), 및 제2 하우징(240)의 각도를 식별할 수 있다. 예를 들어, 상기 센서(220)는, 홀 센서(223)를 포함할 수 있다. 전자 장치(101)는, 지정된 범위를 초과하여 변화하는 상기 각도를 식별할 수 있다. 예를 들어, 상기 지정된 범위는, 전자 장치(101)의 모드, 및/또는 상태의 변화를 탐지할 수 있는 범위일 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 비디오를 분할하기 위한(for segmenting) 지정된 모션들 중 어느 하나에 대응하는 상기 전자 장치(101)의 상기 모션을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 비디오를 획득하는 상태 내에서, 상기 모션에 기반하여, 상기 비디오 내에 포함된 적어도 하나의 피사체를 식별할 수 있다. 예를 들어, 상기 지정된 모션들은, 상기 전자 장치(101)의 모드, 또는 상태 중 적어도 하나와 관련될 수 있다. 예를 들어, 상기 지정된 모션들은, 상기 전자 장치(101)의 센서(220)를 이용하여 획득되는 전기적 신호의 적어도 일부와 관련될 수 있다. 예를 들어, 전자 장치(101)는, 상기 비디오를 획득하는 상태 내에서, 상기 지정된 모션이 식별된 시간 구간과 관련된 메타 데이터를 상기 비디오 내에 저장할 수 있다. 전자 장치(101)는, 상기 메타 데이터를 포함하는 상기 비디오를, 메모리(130) 내에 저장할 수 있다. 전자 장치(101)의 지정된 모션들과 관련된 설명은, 도 4에서 후술된다.
일 실시 예에 따른, 전자 장치(101)는, 비디오를 획득하는 상태 내에서, 적어도 하나의 피사체의 상기 비디오 내에서의 위치, 또는 방향 중 적어도 하나를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 적어도 하나의 피사체의 위치, 또는 방향 중 적어도 하나가 지정된 범위를 초과하는 동안의 시간 구간을 식별할 수 있다. 전자 장치(101)는, 상기 시간 구간을 포함하는 메타 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 메타 데이터를, 상기 비디오 내에 포함할 수 있다. 전자 장치(101)는, 상기 메타 데이터가 포함된, 상기 비디오를 메모리(130) 내에 저장할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 메타 데이터를 포함하는 비디오를 편집할 수 있다. 예를 들어, 전자 장치(101)는, 상기 메타 데이터를 포함하는 비디오를 편집하는 동안, 상기 메타 데이터와 관련된 시각적 객체, 또는 상기 메타 데이터와 관련된 상기 비디오의 편집을 위한 가이드를 제공할 수 있다. 비디오의 편집을 위한 가이드는, 도 6에서 후술된다.
일 실시 예에 따른, 전자 장치(101)는, 지정된 범위를 초과하여 변화하는 제1 하우징(230), 및 제2 하우징(240) 사이의 식별된 각도에 기반하여, 비디오 내에서 적어도 하나의 피사체를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 피사체에 포함된 것으로 식별된 눈, 코, 입, 및/또는 귀에 기반하여, 상기 피사체가 얼굴에 대응하는 특정 카테고리에 포함된 것을 결정할 수 있다. 예를 들어, 전자 장치(101)는, 인공 지능과 관련된 연산을 수행하기 위한 하드웨어(예, NPU(neural processing unit), 및/또는 GPU(graphic processing unit)), 상기 인공 지능과 관련된 기능을 제공하기 위한 소프트웨어, 및/또는 외부 전자 장치(예, 상기 인공 지능과 관련된 기능을 제공하는 서버)에 기반하여 획득된 정보들에 기반하여 피사체를 식별할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 비디오의 지정된 부분 내에 포함된 적어도 하나의 피사체를 식별할 수 있다. 예를 들어, 상기 비디오의 지정된 부분은, 비디오의 경계 선(border line), 또는 가장자리(edge)로부터 지정된 거리 미만의 거리로 이격된 부분을 포함할 수 있다. 전자 장치(101)는, 상기 지정된 부분 내에 포함된 것으로 식별된 상기 적어도 하나의 피사체에 기반하여, 상기 적어도 하나의 피사체가 상기 지정된 부분 내에서 식별된 시점을 포함하는 시간 구간을 나타내는 정보를 획득할 수 있다. 상기 적어도 하나의 피사체가 지정된 부분 내에서 식별된 시점을 포함하는 시간 구간을 나타내는 정보를 획득한 전자 장치(101)의 동작에 관한 설명은, 도 3에서 후술된다.
일 실시 예에 따른, 전자 장치(101)는, 센서(220)를 이용하여 상기 전자 장치(101)의 모션을 식별할 수 있다. 상기 모션은, 상기 전자 장치(101)의 모드, 및/또는 상태를 포함할 수 있다. 상기 전자 장치(101)의 모드는, 플렉스 모드를 포함할 수 있다. 상기 전자 장치(101)의 상태는, 폴딩 상태, 및 언폴딩 상태를 포함할 수 있다.
전자 장치(101)는, 전자 장치(101)의 센서(220)를 이용하여 획득되는 전기적 신호에 기반하여, 상기 모션을 식별할 수 있다. 예를 들어, 상기 모션은, 상기 전자 장치(101)가 향하는 방향에 따라서 결정될 수 있다. 예를 들어, 전자 장치(101)는, 가속도 센서(221)를 이용하여, 상기 전자 장치(101)에 작용(act)하는 가속도(또는 힘)의 크기, 또는 방향 중 적어도 하나를 획득한 것에 기반하여, 상기 전자 장치(101)의 모션을 획득할 수 있다.
예를 들어, 전자 장치(101)는, 자이로 센서(222)를 이용하여, 상기 자이로 센서(222)를 기준으로 회전하는 전자 장치(101)의 각속도를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 자이로 센서(222)를 이용하여, 전자 장치(101)에 작용하는 코리올리의 힘(Coriolis force)을 획득하여, 상기 전자 장치(101)의 각속도를 획득할 수 있다. 전자 장치(101)는, 상기 각속도를 획득한 것에 기반하여, 상기 전자 장치(101)의 모션을 식별할 수 있다.
예를 들어, 전자 장치(101)는, 홀 센서(223)를 이용하여, 상기 전자 장치(101)의 상태, 또는 모드 중 적어도 하나를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 홀 센서(223)를 이용하여, 제1 하우징(230), 힌지 어셈블리(235), 및 제2 하우징(240) 사이의 각도를 획득할 수 있다. 전자 장치(101)는, 상기 각도가 제1 지정된 범위 내인 폴딩 상태를 획득할 수 있다. 예를 들어, 상기 제1 지정된 범위는, 상기 제1 하우징(230), 힌지 어셈블리(235), 및 제2 하우징(240) 사이의 각도가 0° 이상이고, 20° 미만인 범위를 포함할 수 있다. 예를 들어, 전자 장치(101)는, 상기 홀 센서(223)를 이용하여, 제1 하우징(230), 힌지 어셈블리(235), 및 제2 하우징(240) 사이의 각도가 제2 지정된 범위 내인 플렉스 모드를 식별할 수 있다. 예를 들어, 상기 제2 지정된 범위는, 상기 제1 하우징(230), 상기 힌지 어셈블리(235), 및 상기 제2 하우징(240) 사이의 각도가 20°를 초과하고, 160° 미만인 범위를 포함할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제1 하우징(230), 상기 힌지 어셈블리(235), 및 상기 제2 하우징(240) 사이의 각도가 제3 지정된 범위 내인 언폴딩 상태를 식별할 수 있다. 예를 들어, 제3 지정된 범위는 힌지 어셈블리(235), 및 상기 제2 하우징(240) 사이의 각도가 160°를 이상이고, 180° 이하인 범위를 포함할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 메타 데이터를 포함하는 비디오를 획득하여, 상기 비디오를 편집하는 동안 메타 데이터와 관련된 가이드를 제공할 수 있다. 전자 장치(101)는, 상기 가이드를 제공함으로써, 상기 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 3은, 일 실시 예에 따른, 전자 장치의 모션을 식별하여 획득된 비디오의 일 예를 도시한다. 도 3의 전자 장치(101)는, 도 1, 도 2a, 및/또는 도 2b의 전자 장치(101)의 일 예일 수 있다. 도 3의 카메라(210)는, 도 2a, 및/또는 도 2b의 카메라(210)의 일 예일 수 있다. 도 3의 동작들은 도 1, 및/또는 도 2b의 프로세서(120)에 의해 실행될 수 있다.
도 3을 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 카메라(210)를 통해 비디오를 획득할 수 있다. 전자 장치(101)는, 폴딩 상태, 언폴딩 상태, 및/또는 플렉스 모드 내에서, 상기 카메라(210)를 제어하여 상기 비디오를 획득할 수 있다. 전자 장치(101)는, 상기 비디오를 획득하는 동안, 적어도 하나의 피사체(315)를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 비디오 내에서 식별된 상기 적어도 하나의 피사체(315)의 방향을 식별할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상태(300) 내에서, 일 면(252) 상에 제공된 카메라(210)를 제어하여, 비디오(310)를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상기 비디오(310) 내에 포함된 적어도 하나의 피사체(315)의 방향을 식별할 수 있다. 예를 들어, 상태(300) 내에서 식별된 적어도 하나의 피사체(315)의 방향은, l 방향으로 참조될 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 가속도 센서(예, 도 2b의 가속도 센서(221)), 및/또는 자이로 센서(예, 도 2b의 자이로 센서(222))에 기반하여, 상기 전자 장치(101)의 모션을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 반시계 방향(d), 및/또는 시계 방향(b)로 회전한 것을, 가속도 센서, 및/또는 자이로 센서를 통해 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 가속도 센서, 및/또는 상기 자이로 센서에 기반하여 상기 전자 장치(101)의 지정된 모션을 식별할 수 있다. 전자 장치(101)는, 상기 지정된 모션과 관련된 파라미터를 획득할 수 있다. 상기 파라미터는, 상기 전자 장치(101)의 센서(예, 도 2b의 센서(220))에 기반하여 획득된 전기적 신호와 관련될 수 있다. 예를 들어, 지정된 모션은, 상태(305)와 같이 상기 전자 장치(101)가 회전된 상태를 포함할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들어, 전자 장치(101)는, 상태(305) 내에서 비디오(310)를 획득하는 동안, 상기 상태(305) 내에서 획득된 시간 구간을 나타내기 위한 메타 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 비디오(310) 내에 상기 메타 데이터를 포함하여 메모리(예, 도 1, 및/또는 도 2b의 메모리(130)) 내에 저장할 수 있다.
전자 장치(101)는, 상태(305) 내에서, 비디오(310)를 획득할 수 있다. 전자 장치(101)는, 비디오(310) 내에 포함된 적어도 하나의 피사체(315)를 식별할 수 있다. 전자 장치(101)는, 상태(305) 내에서 획득된 비디오(310) 내에 포함된 적어도 하나의 피사체(315)의 방향을 식별할 수 있다. 예를 들어, 상기 적어도 하나의 피사체(315)의 방향은 m 방향으로 참조될 수 있다. 예를 들어, 전자 장치(101)는, m 방향을 가리키는 적어도 하나의 피사체(315)를 식별하는 동안, 가속도 센서를 통해 상기 전자 장치(101)로 작용하는 가속도(또는 힘)의 크기, 또는 방향 중 적어도 하나가 지정된 범위 내임을 식별할 수 있다. 예를 들어, 상기 지정된 범위는, 상기 전자 장치(101)의 모션과 관련될 수 있다. 예를 들어, 상기 지정된 범위는, 상기 전자 장치(101)가 기울어진 정도와 관련될 수 있다. 예를 들어, 전자 장치(101)는, 상기 가속도 센서, 및/또는 자이로 센서에 기반하여, 상기 전자 장치(101)의 모션을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 비디오(310)를 획득하는 상태 내에서, 가속도 센서에 의해 획득된 전자 장치(101)로 작용하는 가속도의 크기, 또는 방향 중 적어도 하나가 지정된 범위 내인 시간 구간을 나타내는 정보를 획득할 수 있다. 전자 장치(101)는, 상기 시간 구간을 나타내는 정보와 관련된 메타 데이터를 상기 비디오(310) 내에 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 전자 장치(101)로 작용하는 가속도(또는 힘)의 크기, 또는 방향 중 적어도 하나가 지정된 범위 내로 식별된 시점을 식별할 수 있다. 전자 장치(101)는, 상기 시점을 포함하는 시간 구간을 식별할 수 있다. 전자 장치(101)는, 상기 시점을 포함하는 상기 시간 구간과 관련된 메타 데이터를 획득할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 적어도 하나의 피사체(315), 및 비디오(310)의 경계 선 사이의 각도를 식별할 수 있다. 전자 장치(101)는, 상기 적어도 하나의 피사체(315), 및 상기 비디오(310)의 경계 선(또는 가장자리) 사이의 각도가 지정된 임계치를 초과한 것을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 적어도 하나의 피사체(315), 및 상기 비디오(310)의 경계 선 사이의 각도가 지정된 임계치를 초과한 것으로 식별된 것에 기반하여, 상기 지정된 임계치를 초과한 것으로 식별된 시점을 포함하는 시간 구간을 획득할 수 있다. 전자 장치(101)는, 상기 시간 구간과 관련된 메타 데이터를, 비디오(310) 내에 저장할 수 있다. 예를 들어, 전자 장치(101)는, 상기 지정된 임계치를 초과한 것으로 식별된 상기 시점을 포함하는 시간 구간 내의 상기 비디오(310)를 회전하여 표시하기 위한 정보를 획득할 수 있다. 전자 장치(101)는, 상기 비디오(310)를 편집하기 위한 상태 내에서, 상기 비디오(310)를 회전하여 표시하기 위한 정보를 이용하여, 상기 비디오(310)의 편집의 가이드를 화면 내에 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 지정된 임계치를 초과한 것으로 식별된 시점을 포함하는 시간 구간과 관련된 메타 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 메타 데이터를 이용하여, 비디오(310)의 편집의 가이드를 제공함으로써, 상기 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 4는, 일 실시 예에 따른, 전자 장치의 모션을 식별하여 획득된 비디오의 일 예를 도시한다. 도 4의 전자 장치(101)는, 도 1, 도 2a, 도 2b, 및/또는 도 3의 전자 장치(101)의 일 예일 수 있다. 도 4의 동작들은, 도 1, 및/또는 도 2b의 프로세서(120)에 의해 실행될 수 있다.
도 4를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 제1 하우징(230), 및/또는 제2 하우징(240) 사이의 각도와 관련된 모드, 및/또는 상태 내에서, 카메라(210)를 제어하여 비디오를 획득할 수 있다. 예를 들어, 제1 하우징(230), 힌지 어셈블리(235), 및/또는 제2 하우징(240) 사이의 각도와 관련된 모드, 및/또는 상태는, 플렉스 모드, 폴딩 상태, 및/또는 언폴딩 상태를 포함할 수 있다. 예를 들어, 상기 플렉스 모드는, 상기 제1 하우징(230), 힌지 어셈블리(235), 및 제2 하우징(240) 사이의 각도가 지정된 범위인 경우를 포함할 수 있다. 예를 들어, 플렉스 모드는, 제1 하우징(230), 힌지 어셈블리(235), 및 제2 하우징(240) 사이의 각도가 20°를 초과하고 160° 미만인 경우를 포함할 수 있다. 예를 들어, 상기 폴딩 상태는, 상기 제1 하우징(230), 상기 힌지 어셈블리(235), 및 상기 제2 하우징(240) 사이의 각도가 0° 이상이고, 20° 이하인 경우를 포함할 수 있다. 예를 들어, 상기 언폴딩 상태는, 상기 제1 하우징(230), 상기 힌지 어셈블리(235), 및 상기 제2 하우징(240) 사이의 각도가 160° 이상이고, 180° 이하인 경우를 포함할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 제1 하우징(230), 상기 힌지 어셈블리(235), 및 상기 제2 하우징(240) 사이의 각도에 기반하여, 상기 전자 장치(101)의 모션을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 모션과 관련된 파라미터를 획득할 수 있다. 예를 들어, 상기 모션과 관련된 파라미터는, 상기 전자 장치(101)로 작용하는 가속도(또는 힘)의 크기, 및/또는 방향과 관련될 수 있다. 상기 모션과 관련된 파라미터는, 상기 전자 장치(101)의 제1 하우징(230), 힌지 어셈블리(235), 및 제2 하우징(240) 사이의 각도와 관련될 수 있다. 전자 장치(101)는, 비디오(310)를 획득하는 상태 내에서, 상기 전자 장치(101)의 모션에 기반하여 메타 데이터를 획득할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상태(400) 내에서, 비디오(310)를 획득할 수 있다. 예를 들어, 상기 상태(400)는, 언폴딩 상태로 참조될 수 있다. 예를 들어, 상기 전자 장치(101)는, 상기 상태(400) 내에서 비디오를 획득하는 동안, 적어도 하나의 피사체(315)를 식별할 수 있다. 전자 장치(101)는, 상태(400)로부터 상태(410)로 변화하는 동안, 비디오(310)를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 상태(400)로부터 상태(410)로 변화하는 동안, 비디오(310) 내에 포함된 적어도 하나의 피사체(315)의 위치를 식별할 수 있다. 전자 장치(101)는, 상기 비디오(310)의 경계 선(또는 가장자리)로부터 상기 적어도 하나의 피사체(315)의 거리를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 비디오(310)의 경계 선으로부터 지정된 거리 미만의 거리로 이격된 지정된 부분 내에서, 상기 적어도 하나의 피사체(315)를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 경계 선으로부터 지정된 거리 미만으로 이격된 지정된 부분 내에서, 상기 적어도 하나의 피사체(315)가 식별되는 시간 구간을 획득할 수 있다. 전자 장치(101)는, 상기 시간 구간을 나타내는 정보를 획득할 수 있다. 전자 장치(101)는, 상기 시간 구간을 나타내는 정보를 포함하는 메타 데이터를, 상기 비디오(310) 내에 포함하여 메모리 내에 저장할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 비디오(310)를 편집하는 상태 내에서, 상기 시간 구간을 나타내는 가이드를 제공할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 적어도 하나의 피사체(315)가 지정된 부분 내에서 포함되는 것을 식별할 수 있다. 전자 장치(101)는, 상기 지정된 부분 내에서 상기 적어도 하나의 피사체(315)가 식별되는 동안의 시간 구간을 포함하는 메타 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 메타 데이터를 포함하는 비디오(310)를 획득할 수 있다. 전자 장치(101)는, 상기 비디오(310)를 편집하는 상태 내에서, 상기 시간 구간과 관련된 가이드를 제공함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 5는, 일 실시 예에 따른, 전자 장치의 모션을 식별하여 획득된 비디오의 일 예를 도시한다. 도 5의 전자 장치(101)는, 도 1, 도 2a, 도 2b, 도 3, 및/또는 도 4의 전자 장치(101)의 일 예일 수 있다. 도 5의 카메라(210)는, 도 2a, 도 2b, 도 3, 및/또는 도 4의 카메라(210)의 일 예일 수 있다. 도 5의 카메라(215)는, 도 2a의 카메라(215)의 일 예일 수 있다. 도 5의 동작들은, 도 1, 및/또는 도 2b의 프로세서(120)에 의해 실행될 수 있다.
도 5를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 상태(500) 내에서, 카메라(210)를 제어하여 비디오(310)를 획득할 수 있다. 전자 장치(101)는, 상기 카메라(210)를 제어하여 상기 비디오(310)를 획득하는 동안, 적어도 하나의 피사체(315)를 식별할 수 있다. 전자 장치(101)는, 상기 카메라(210)를 제어하여 비디오(310)를 획득하는 동안, 일 축(520)을 기준으로 회전할 수 있다. 상기 일 축(520)의 위치는 제한되지 않는다. 전자 장치(101)는, 상기 회전이 완료된 상태(510) 내에서, 카메라(215)를 제어하여 비디오(310)를 획득할 수 있다. 예를 들어, 전자 장치(101)는, 카메라(210)의 광축의 변화를 식별할 수 있다. 전자 장치(101)는, 상기 광축이 변화하는 동안, 상기 전자 장치(101)의 모션의 변화를 식별할 수 있다. 전자 장치(101)는, 상기 광축이 변화하는 동안, 적어도 하나의 피사체(315)가 지정된 부분 내에서 식별된 후에 상기 비디오(310)를 이탈하는 것(getting out)을 식별할 수 있다. 예를 들어, 상기 적어도 하나의 피사체(315)가 상기 비디오(310)를 이탈하는 것은, 상기 비디오(310) 내에서 상기 적어도 하나의 피사체(315)가 식별되지 않는 것을 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 카메라(210)를 제어하여 비디오(310)를 획득하는 동안, 적어도 하나의 센서(예, 도 2b의 센서(220))를 통해 상기 전자 장치(101)의 모션을 식별할 수 있다. 전자 장치(101)의 상기 모션은, 상기 전자 장치(101)로 작용하는 가속도(또는 힘)의 크기, 또는 방향 중 적어도 하나와 관련될 수 있다. 상기 모션은, 상기 전자 장치(101)의 모드, 및/또는 상태와 관련될 수 있다. 상기 모드, 및/또는 상기 상태는, 상기 전자 장치(101)의 플렉스 모드, 폴딩 상태, 및/또는 언폴딩 상태를 포함할 수 있다. 예를 들어, 상기 모션은, 회전 모션을 포함할 수 있다. 예를 들어, 상기 회전 모션은, 롤(roll), 피치(pitch), 및/또는 요(yaw)를 포함할 수 있다. 예를 들어, 상기 롤은, 카메라의 광축이 향하는 방향을 기준으로 회전하는 것을 포함할 수 있다. 예를 들어, 상기 카메라의 광축이 향하는 방향이 x 축인 경우, 상기 피치는, 상기 카메라의 광축이 향하는 방향과 수직인 y 축을 기준으로 회전하는 것을 포함할 수 있다. 예를 들어, 상기 요는, 상기 카메라의 광축이 향하는 방향이 x 축인 경우, z 축을 향하는 방향으로 회전하는 것을 포함할 수 있다. 하지만, 이에 제한되지 않는다.
일 실시 예에 따른, 전자 장치(101)는, 전자 장치(101)의 모션과 관련된 파라미터를 획득할 수 있다. 전자 장치(101)는, 상기 전자 장치(101)의 상기 모션과 관련된 파라미터에 기반하여, 상태(500)로부터 상태(510)로 변경된 것을 식별할 수 있다. 전자 장치(101)는, 상기 상태(510)로 변경된 것에 기반하여, 카메라(210)가 제공된 일 면(252)과 반대인 일 면(251) 상에 제공된 카메라(215)를 제어하여 비디오(310)를 획득할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 비디오(310)를 획득하는 상태 내에서, 상태(500)로부터 상태(510)로 변경된 시점을 포함하는 시간 구간을 획득할 수 있다. 전자 장치(101)는, 상기 변경된 시점을 포함하는 상기 시간 구간과 관련된 메타 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 메타 데이터를 포함하는, 비디오(310)를 메모리 내에 저장할 수 있다. 전자 장치(101)는, 상기 비디오(310)를 편집하는 상태 내에서, 상기 비디오(310)의 편집을 위한 가이드를 제공할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 비디오(310)를 획득하는 동안, 상태(500)로부터 상태(510)로 변경되는 시점을 포함하는 시간 구간을 획득할 수 있다. 전자 장치(101)는, 상기 시간 구간과 관련된 메타 데이터를 획득할 수 있다. 전자 장치(101)는, 상기 메타 데이터를 포함하는 상기 비디오(310)를 메모리 내에 저장할 수 있다. 전자 장치(101)는, 상기 메타 데이터를 포함하는 비디오(310)를 편집하는 동안, 상기 시간 구간과 관련된 정보를 화면 내에 표시할 수 있다. 전자 장치(101)는, 상기 비디오(310)를 편집하는 상태 내에서, 상기 시간 구간과 관련된 정보를 표시함으로써, 상기 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 6은, 일 실시 예에 따른, 비디오의 편집을 가이드하기 위한 전자 장치의 사용 상태의 일 예를 도시한다. 도 6의 전자 장치는, 도 1, 도 2a, 도 2b, 도 3, 도 4, 및/또는 도 5의 전자 장치(101)의 일 예일 수 있다. 도 6의 동작들은, 도 1, 및/또는 도 2b의 프로세서(120)에 의해 실행될 수 있다.
도 6을 참조하면, 일 실시 예에 따른, 전자 장치는, 센서(예, 도 2b의 센서(220))에 기반하여 획득된 시간 구간들(601, 602, 603, 604)을 포함하는 비디오(310)를 편집(edit), 또는 분할(segment) 중 적어도 하나를 수행하기 위한 상태를 제공할 수 있다. 예를 들어, 상기 비디오(310)의 편집, 및/또는 분할을 하기 위한 상태는, 상태(600), 및/또는 상태(610)로 참조될 수 있다.
일 실시 예에 따른, 전자 장치는, 적어도 하나의 피사체(315)를 식별한 상태 내에서, 상기 전자 장치의 모션과 관련된 정보를 획득할 수 있다. 전자 장치는, 센서에 기반하여, 상기 전자 장치의 모션과 관련된 정보를 획득할 수 있다. 예를 들어, 상기 전자 장치의 모션과 관련된 정보는, 상기 센서에 기반하여 획득되는 전기적 신호에 기반하여 획득될 수 있다. 예를 들어, 전자 장치는, 적어도 하나의 센서로부터 획득된 전기적 신호에 기반하여, 상기 모션과 관련된 정보를 획득할 수 있다. 전자 장치는, 상기 모션과 관련된 정보가 지정된 모션에 매칭되는지 여부를 식별할 수 있다. 예를 들어, 전자 장치는, 적어도 하나의 피사체를 식별하는 동안, 상기 전자 장치의 모션이 지정된 모션인지 여부를 식별할 수 있다. 전자 장치는 상기 지정된 모션에 매칭된 것으로 식별된 상기 전자 장치의 모션에 기반하여, 시간 구간들(601, 602, 603, 604) 각각을 식별할 수 있다.
예를 들어, 전자 장치의 모션을 식별하여 비디오를 획득하는 것은, 하기 표 1을 참조할 수 있다. 예를 들어, 전자 장치는, 적어도 하나의 센서(예, 자이로 센서, 가속도 센서, 홀 센서)에 의해 획득되는 전기적 신호에 기반하여, 시간 구간들(601, 602, 603, 604)을 획득할 수 있다.
자이로 센서, 및/또는 가속도 센서 홀 센서 피사체 식별
제1 케이스 증감 구간 포함 X O (방향의 변화)
제2 케이스 증감 구간 포함 X O (방향의 변화)
제3 케이스 증감 구간 포함 20° 내지 80° O (위치, 또는 방향의 변화)
제4 케이스 X 80° 내지 160° X
제5 케이스 X 160° 내지 180° X
표 1을 참조하면, 일 실시 예에 따른, 전자 장치는, 자이로 센서, 및/또는 가속도 센서를 통해 획득되는 전기적 신호의 크기 변화를 식별할 수 있다. 전자 장치는, 상기 자이로 센서, 및/또는 가속도 센서를 통해 획득되는 전기적 신호의 크기가 변화한 것에 기반하여, 상기 전자 장치의 모션을 식별할 수 있다. 상기 표 1의 제1 케이스, 및/또는 제2 케이스 내에서, 전자 장치는, 자이로 센서, 및/또는 가속도 센서에 기반하여 획득되는 전기적 신호의 크기의 변화를 식별할 수 있다. 예를 들어, 상기 제1 케이스, 및/또는 제2 케이스는, 시간 구간(601)에 매칭될 수 있다. 예를 들어, 전자 장치는, 적어도 하나의 피사체(315)를 포함하는 비디오(310)를 획득하는 동안, 자이로 센서, 및/또는 가속도 센서에 기반하여 전자 장치의 모션을 식별할 수 있다. 전자 장치는, 상기 모션이 지정된 모션에 매칭되는 것을 식별할 수 있다. 예를 들어, 상기 지정된 모션은, 전자 장치가 반시계 방향(예, 도 3의 방향(d))으로 90° 만큼 회전한 것을 포함할 수 있다. 예를 들어, 상기 지정된 모션은, 전자 장치가 시계 방향(예, 도 3의 방향(b))으로 180° 만큼 회전한 것을 포함할 수 있다. 예를 들어, 상기 기울어진 상태는, 전자 장치가 적어도 하나의 피사체를 획득하는 동안, 상기 적어도 하나의 피사체의 방향이 지정된 범위를 초과하는 상태를 포함할 수 있다. 전자 장치는, 적어도 하나의 피사체를 식별하는 동안, 상기 식별된 지정된 모션에 기반하여, 시간 구간(601)을 나타내는 정보를 획득할 수 있다. 예를 들어, 전자 장치는, 상기 시간 구간(601)과 관련된 메타 데이터를 비디오(310) 내에 저장할 수 있다. 예를 들어, 전자 장치는, 상기 시간 구간(601)을 나타내는 정보를 나타내기 위한 가이드를 표시할 수 있다. 예를 들어, 전자 장치는, 상기 시간 구간(601)을 나타내는 정보를 나타내기 위한 가이드를, 상태(600)와 같이 화면 내에 표시할 수 있다. 전자 장치는, 상기 시간 구간(601)의 분할을 제안하기 위한 가이드를 화면 내에 표시할 수 있다. 전자 장치는, 상기 시간 구간(601)의 분할을 승낙하는 입력에 기반하여, 상태(610)와 같이 상기 시간 구간(601)을 분할한 비디오를 저장할 수 있다. 전자 장치는, 분할을 승낙하는 입력을 취소하기 위한 시각적 객체를 화면 내에 표시할 수 있다. 전자 장치는, 상기 분할을 승낙하는 입력을 취소하기 위한 시각적 객체에 대한 입력에 기반하여, 상기 분할된 시간 구간(601)을 복원할 수 있다.
일 실시 예에 따른, 전자 장치는, 제3 케이스 내에서, 자이로 센서, 및/또는 가속도 센서에 기반하여 전기적 신호를 획득할 수 있다. 전자 장치는, 홀 센서에 기반하여, 제1 하우징(예, 도 2a의 제1 하우징(230)), 힌지 어셈블리(예, 도 2a의 힌지 어셈블리(235)), 및 제2 하우징(예, 도 2a의 제2 하우징(240)) 사이의 각도를 식별할 수 있다. 예를 들어, 제3 케이스 내에서 식별된 상기 각도는, 20°를 초과하고, 80° 미만인 범위 내에 포함될 수 있다. 상기 각도 내에서, 전자 장치는, 플렉스 모드로 참조될 수 있다. 전자 장치는, 비디오(310)를 획득하는 동안, 적어도 하나의 피사체(315)를 식별할 수 있다. 전자 장치는, 상기 비디오(310) 내에서 상기 적어도 하나의 피사체(315)의 식별이 중단된 것을 식별할 수 있다. 전자 장치는, 상기 적어도 하나의 피사체(315)의 식별이 중단된 것에 기반하여, 상기 적어도 하나의 피사체(315)의 식별이 중단된 시점을 포함하는 시간 구간을 획득할 수 있다. 예를 들어, 상기 적어도 하나의 피사체(315)의 식별이 중단된 시점을 포함하는 시간 구간은, 시간 구간(602)을 포함할 수 있다.
일 실시 예에 따른, 전자 장치는, 제4 케이스 내에서, 홀 센서에 기반하여 획득된 전기적 신호의 변화를 식별할 수 있다. 예를 들어, 제4 케이스 내에서, 전자 장치는, 제1 하우징, 힌지 어셈블리, 및 제2 하우징 사이의 각도를 식별할 수 있다. 예를 들어, 제4 케이스 내에서 식별된 상기 각도는, 80° 이상이고 160° 미만인 범위 내에 포함될 수 있다. 예를 들어, 제4 케이스 내에서, 전자 장치는, 시간 구간(603), 및/또는 시간 구간(604)을 획득할 수 있다. 상기 시간 구간(603), 및/또는 시간 구간(604)은, 적어도 하나의 피사체(315)가 식별되는 것으로부터 적어도 하나의 피사체(315)의 식별이 중단되는 시점을 포함할 수 있다. 예를 들어, 전자 장치는, 상기 시간 구간(603)의 분할을 위한 가이드를 나타낼 수 있다.
일 실시 예에 따른, 전자 장치는, 제5 케이스 내에서, 홀 센서를 통해 전기적 신호를 획득할 수 있다. 예를 들어, 전자 장치는, 상기 전자 장치의 상태, 및/또는 모드를 식별할 수 있다. 예를 들어, 제5 케이스 내에서, 전자 장치는, 상기 전자 장치가 플렉스 모드로부터, 언폴딩 상태로 변화하는 것을 식별할 수 있다. 예를 들어, 전자 장치는, 상기 플렉스 모드로부터, 언폴딩 상태로 변화하는 시점을 포함하는 시간 구간을 획득할 수 있다. 전자 장치는, 상기 시간 구간을 포함하는 메타 데이터를, 비디오(310) 내에 저장할 수 있다.
일 실시 예에 따른, 전자 장치는, 시간 구간들(601, 602, 603, 604)과 관련된 정보를 획득하여, 비디오(310)와 함께 저장할 수 있다. 전자 장치는, 상기 비디오(310)를 편집, 및/또는 분할하기 위한 상태 내에서, 상기 시간 구간들(601, 602, 603, 604)을 가이드하기 위한 시각적 객체를 나타낼 수 있다. 전자 장치는, 상기 시각적 객체에 대한 입력을 수신할 수 있다. 전자 장치는, 상기 시각적 객체에 대한 입력을 수신한 것에 기반하여, 상기 시간 구간들(601, 602, 603, 604) 중 적어도 일부를 편집, 및/또는 분할할 수 있다. 일 실시 예에 따른, 전자 장치는, 상기 시간 구간들(601, 602, 603, 604) 중 적어도 일부를 편집, 및/또는 분할한 후에, 상기 시간 구간들(601, 602, 603, 604)의 적어도 일부를 복원할 수 있다.
일 실시 예에 따른, 전자 장치는, 상기 시간 구간들(601, 602, 603, 604) 각각과 관련된 정보를 획득한 것에 기반하여, 상기 시간 구간들(601, 602, 603, 604) 각각에 대응하는 상기 비디오(310)의 적어도 일부를 분할할 수 있다. 전자 장치는, 상기 비디오(310)의 적어도 일부를 분할한 것에 기반하여, 상기 분할된 비디오(310), 및/또는 상기 분할과 관련된 메타 데이터를 저장할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 비디오(310) 내에 포함된 시간 구간들(601, 602, 603, 604)을 편집, 및/또는 분할하기 위한 가이드를 제공할 수 있다. 전자 장치는, 상기 시간 구간들(601, 602, 603, 604)에 매칭되는 가이드를 제공함으로써, 전자 장치의 사용자 경험을 강화할 수 있다.
도 7은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 7의 전자 장치는, 도 1, 도 2a, 도 2b, 도 3, 도 4, 및/또는 도 5의 전자 장치(101), 및/또는 도 6의 전자 장치의 일 예일 수 있다. 도 7의 동작들은, 도 1, 및/또는 도 2b의 프로세서(120)에 의해 실행될 수 있다.
도 7을 참조하면, 동작 701에서, 일 실시 예에 따른, 전자 장치는, 촬영 입력(a shooting input)을 수신할 수 있다. 전자 장치는, 상기 촬영 입력에 기반하여, 적어도 하나의 카메라를 제어할 수 있다. 전자 장치는, 상기 적어도 하나의 카메라를 제어하여 비디오(예, 도 3 내지 도 6의 비디오(310))를 획득할 수 있다. 전자 장치는, 상기 비디오를 획득하는 상태 내에서 센서(예, 도 2b의 센서(220))를 이용하여 전기적 신호를 획득할 수 있다. 전자 장치는, 상기 센서를 이용하여, 제1 하우징(예, 도 2a의 제1 하우징(230)), 및 제2 하우징(예, 도 2b의 제2 하우징(240)) 사이의 각도를 식별할 수 있다. 전자 장치는, 상기 식별된 각도에 기반하여, 상기 전자 장치의 모드, 및/또는 상태를 식별할 수 있다. 전자 장치의 모드, 및/또는 상태는, 플렉스 모드, 언폴딩 상태, 및/또는 폴딩 상태로 참조될 수 있다. 일 실시 예에 따른, 전자 장치는, 상기 각도가 지정된 범위를 초과하는 것을 식별할 수 있다.
동작 703에서, 일 실시 예에 따른, 전자 장치는, 지정된 범위를 초과하여 변화하는 제1 하우징, 및 제2 하우징 사이의 각도를 식별할 수 있다. 일 실시 예에 따른, 전자 장치는, 상기 각도가 지정된 범위를 초과한 것에 기반하여, 상기 각도와 관련된 정보를 획득할 수 있다. 전자 장치는, 지정된 범위를 초과하여 변화하는 상기 식별된 각도에 기반하여, 상기 각도가 지정된 범위를 초과하는 시점을 포함하는 시간 구간을 나타내는 정보를 획득할 수 있다. 전자 장치는, 상기 식별된 각도에 기반하여, 비디오 내에서 적어도 하나의 피사체(예, 도 3의 적어도 하나의 피사체(315))를 식별할 수 있다. 예를 들어, 전자 장치는 상기 각도에 기반하여 식별된 상기 전자 장치의 모드, 및/또는 상태 중 적어도 하나에 기반하여, 상기 비디오 내에서 적어도 하나의 피사체를 식별할 수 있다. 전자 장치는, 식별된 적어도 하나의 피사체에 기반하여, 상기 적어도 하나의 피사체의 비디오 내에서의 위치를 식별할 수 있다. 예를 들어, 전자 장치는, 상기 적어도 하나의 피사체의 위치가 지정된 부분 내에 포함된 것을 식별할 수 있다.
동작 705에서, 일 실시 예에 따른, 전자 장치는, 비디오의 지정된 부분 내에 포함된 적어도 하나의 피사체를 식별할 수 있다. 예를 들어, 전자 장치는, 비디오의 지정된 부분 내에 포함된 적어도 하나의 피사체의 식별에 기반하여, 상기 적어도 하나의 피사체가 지정된 부분 내에서 식별된 시점을 식별할 수 있다. 전자 장치는, 상기 적어도 하나의 피사체가 지정된 부분 내에서 식별된 상기 시점을 포함하는 시간 구간을 나타내는 정보를 획득할 수 있다. 전자 장치는, 상기 시간 구간을 나타내는 정보를 획득한 것에 기반하여, 상기 정보와 관련된 메타 데이터를 상기 비디오와 함께 메모리(예, 도 1, 및/또는 도 2b의 메모리(130)) 내에 저장할 수 있다.
일 실시 예에 따른, 전자 장치는, 동작 701 내에서 각도를 식별하기 위한 센서와 상이한 센서에 기반하여, 상기 전자 장치의 모션을 식별할 수 있다. 예를 들어, 상기 모션은, 가속도 센서, 및/또는 자이로 센서에 기반하여 획득된 전기적 신호와 관련될 수 있다. 예를 들어, 전자 장치는, 가속도 센서, 및/또는 자이로 센서에 기반하여, 상기 전자 장치로 작용하는 가속도(또는 힘)의 크기, 또는 방향 중 적어도 하나를 획득할 수 있다. 전자 장치는, 상기 전자 장치로 작용하는 가속도(또는 힘)의 크기, 또는 방향 중 적어도 하나에 기반하여, 상기 전자 장치의 모션을 식별할 수 있다. 전자 장치는, 상기 모션이 지정된 모션으로 식별된 것에 기반하여, 상기 지정된 모션으로 식별된 시점을 포함하는 시간 구간을 나타내는 메타 데이터를 획득하여 비디오와 함께 저장할 수 있다.
일 실시 예에 따른, 전자 장치는, 메타 데이터가 포함된 비디오를 편집, 및/또는 분할하는 상태 내에서, 상기 메타 데이터 내에 포함된 시간 구간을 나타내기 위한 시각적 객체를 표시할 수 있다. 예를 들어, 상기 시각적 객체는 상기 시간 구간을 분할하거나 편집하기 위한 입력을 수신할 수 있다. 전자 장치는, 상기 입력에 기반하여, 상기 입력에 매칭되는 동작을 수행할 수 있다. 예를 들어, 전자 장치는, 상기 입력을 수신한 것에 기반하여, 상기 비디오의 적어도 일부를 분할할 수 있다. 예를 들어, 전자 장치는 상기 입력을 수신한 것에 기반하여, 상기 비디오의 적어도 일부를 편집할 수 있다. 예를 들어, 상기 비디오의 적어도 일부를 편집하는 것은 상기 비디오가 표시되는 방향을 변경하는 것을 포함할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 비디오를 획득하는 동안, 센서를 이용하여, 제1 하우징, 힌지 어셈블리, 및 제2 하우징의 각도를 식별할 수 있다. 전자 장치는, 지정된 범위를 초과하여 변화하는 상기 각도의 식별에 기반하여, 적어도 하나의 피사체를 식별할 수 있다. 전자 장치는, 상기 적어도 하나의 피사체가 지정된 부분 내에서 식별된 시점을 포함하는 시간 구간을 나타내는 정보를 획득할 수 있다. 전자 장치는, 상기 시간 구간을 나타내는 정보와 관련된 시각적 객체를, 상기 비디오의 편집 상태 내에서 표시할 수 있다. 전자 장치는, 상기 편집 상태 내에서, 상기 시각적 객체를 표시함으로써, 전자 장치의 사용자 경험을 강화할 수 있다.
도 8은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 8의 전자 장치는, 도 1, 도 2a, 도 2b, 도 3, 도 4, 및/또는 도 5의 전자 장치(101), 도 6, 및/또는 도 7의 전자 장치의 일 예일 수 있다. 도 8의 동작들은, 도 1, 및/또는 도 2b의 프로세서(120)에 의해 실행될 수 있다.
도 8을 참조하면, 동작 801에서, 일 실시 예에 따른, 전자 장치는, 촬영 입력을 수신할 수 있다. 전자 장치는, 상기 촬영 입력에 기반하여, 적어도 하나의 카메라(예, 도 2a의 카메라(210))를 제어할 수 있다. 전자 장치는, 상기 적어도 하나의 카메라를 제어하여 비디오(예, 도 3, 도 4, 도 5, 및/또는 도 6의 비디오(310))를 획득할 수 있다. 전자 장치는, 상기 비디오를 획득하는 상태 내에서, 적어도 하나의 센서(예, 도 2b의 센서(220))를 이용하여, 상기 전자 장치의 모션을 식별할 수 있다. 예를 들어, 전자 장치는, 상기 적어도 하나의 센서를 이용하여, 상기 전자 장치로 작용하는 가속도(또는 힘)의 크기, 또는 방향 중 적어도 하나를 획득할 수 있다. 전자 장치는, 상기 가속도(또는 힘)의 크기, 또는 방향 중 적어도 하나를 획득한 것에 기반하여, 상기 전자 장치의 모션을 식별할 수 있다. 예를 들어, 전자 장치는, 상기 적어도 하나의 센서를 이용하여, 제1 하우징(예, 도 2a의 제1 하우징(230)), 힌지 어셈블리(예, 도 2a의 힌지 어셈블리(235)), 및 제2 하우징(예, 도 2a의 제2 하우징(240))의 각도를 식별할 수 있다. 예를 들어, 상기 전자 장치의 모션은, 전자 장치의 모드, 및/또는 상태와 관련될 수 있다. 예를 들어, 상기 전자 장치의 모션은, 플렉스 모드, 언폴딩 상태, 및/또는 폴딩 상태를 포함할 수 있다. 예를 들어, 전자 장치는, 상기 모션이 지정된 모션인 것을 식별할 수 있다. 상기 지정된 모션은, 상기 비디오를 분할하기 위한 것일 수 있다.
동작 803에서, 일 실시 예에 따른, 전자 장치는, 비디오를 분할하기 위한 지정된 모션을 식별할 수 있다. 예를 들어, 전자 장치는, 지정된 모션들 중 어느 하나에 매칭되는 전자 장치의 모션을 식별할 수 있다. 전자 장치는, 상기 지정된 모션들 중 어느 하나에 매칭되는 전자 장치의 모션의 식별에 기반하여, 비디오 내에 포함된 적어도 하나의 피사체의 위치를 식별할 수 있다. 예를 들어, 전자 장치는, 상기 적어도 하나의 피사체의 위치가 상기 비디오의 경계 선(또는 가장자리)으로부터 지정된 거리 미만의 거리만큼 이격된 것을 식별할 수 있다. 전자 장치는, 상기 적어도 하나의 피사체의 위치, 또는 상기 지정된 모션들 중 어느 하나가 식별된 시간 구간을 식별할 수 있다.
동작 805에서, 일 실시 예에 따른, 전자 장치는, 지정된 모션들 중 어느 하나가 식별된 시간 구간, 또는 적어도 하나의 피사체의 위치를 포함하는 메타 데이터를 획득할 수 있다. 일 실시 예에 따른, 전자 장치는, 상기 적어도 하나의 피사체의 방향을 식별할 수 있다. 예를 들어, 전자 장치는, 상기 적어도 하나의 피사체의 방향의 식별에 기반하여, 상기 적어도 하나의 피사체의 방향을 포함하는 메타 데이터를 획득할 수 있다. 전자 장치는, 상기 지정된 모션들 중 어느 하나가 식별된 시간 구간, 적어도 하나의 피사체의 위치, 적어도 하나의 피사체의 방향 또는 이들의 조합을 포함하는 메타 데이터를 획득할 수 있다. 전자 장치는, 상기 메타 데이터를 포함하는 비디오를 메모리(예, 도 1, 및/또는 도 2b의 메모리(130)) 내에 저장할 수 있다.
일 실시 예에 따른, 전자 장치는, 비디오를 편집하는 상태 내에서, 메타 데이터와 관련된 정보를 표시할 수 있다. 전자 장치는, 상기 메타 데이터와 관련된 정보를 표시하는 동안, 상기 비디오의 편집, 및/또는 분할을 가이드 하기 위한 시각적 객체를 표시할 수 있다. 전자 장치는, 상기 시각적 객체에 대한 입력을 수신할 수 있다. 전자 장치는, 상기 시각적 객체에 대한 입력을 수신한 것에 기반하여, 상기 시각적 객체에 매칭된 동작을 수행할 수 있다. 예를 들어, 상기 시각적 객체에 매칭된 동작은, 상기 비디오의 적어도 일부를 분할, 또는 회전하는 동작 중 적어도 하나를 포함할 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 지정된 모션들 중 어느 하나가 식별된 시간 구간, 또는 적어도 하나의 피사체의 위치를 포함하는 메타 데이터를 획득할 수 있다. 전자 장치는, 상기 메타 데이터를 포함하는 비디오를 편집(또는 분할)하는 가이드를 제공할 수 있다. 전자 장치는, 상기 가이드를 제공함으로써, 전자 장치의 사용자 경험을 강화할 수 있다.
도 9는, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 9의 전자 장치는, 도 1, 도 2a, 도 2b, 도 3, 도 4, 및/또는 도 5의 전자 장치(101), 도 6, 도 7, 및/또는 도 8의 전자 장치의 일 예일 수 있다. 도 9의 동작들은, 도 1, 및/또는 도 2b의 프로세서(120)에 의해 실행될 수 있다.
도 9를 참조하면, 동작 901에서, 일 실시 예에 따른, 전자 장치는, 카메라(예, 도 2a의 카메라(210))를 통해 비디오를 획득할 수 있다. 전자 장치는, 상기 비디오를 획득하는 동안, 적어도 하나의 센서(예, 도 2b의 센서(220))를 이용하여 상기 획득된 비디오의 시간 구간을 획득할 수 있다. 예를 들어, 상기 시간 구간은, 상기 적어도 하나의 센서에 의해 획득되는 전기적 신호의 변화와 관련될 수 있다. 전자 장치는, 상기 적어도 하나의 센서에 의해 획득되는 상기 전기적 신호의 변화에 기반하여, 상기 전자 장치의 모션을 식별할 수 있다. 예를 들어, 전자 장치는, 상기 전자 장치의 상기 모션이 지정된 모션인지 여부를 식별할 수 있다. 예를 들어, 상기 지정된 모션은, 상기 전자 장치로 작용하는 가속도(또는 힘)의 크기, 또는 방향과 관련될 수 있다. 예를 들어, 상기 지정된 모션은, 상기 전자 장치의 모드, 또는 상태 중 적어도 하나와 관련될 수 있다. 예를 들어, 상기 전자 장치의 모드는, 플렉스 모드를 포함할 수 있다. 예를 들어, 상기 전자 장치의 상태는, 언폴딩 상태, 또는 폴딩 상태를 포함할 수 있다.
일 실시 예에 따른, 전자 장치는, 적어도 하나의 센서를 이용하여, 지정된 모션이 식별된 시간 구간을 획득할 수 있다. 전자 장치는, 상기 지정된 모션이 식별된 시간 구간 내에서, 적어도 하나의 피사체(예, 도 3의 적어도 하나의 피사체(315))를 식별할 수 있다. 전자 장치는, 상기 적어도 하나의 피사체의 위치, 방향 또는 이들의 조합을 식별할 수 있다. 전자 장치는, 상기 적어도 하나의 피사체의 위치, 방향 또는 이들의 조합과 관련된 메타 데이터를 획득할 수 있다.
동작 903에서, 일 실시 예에 따른, 전자 장치는, 적어도 하나의 센서를 이용하여 획득된 시간 구간과 관련된 메타 데이터를 획득할 수 있다. 전자 장치는, 적어도 하나의 피사체의 위치, 방향 또는 이들의 조합과 관련된 메타 데이터를 획득할 수 있다. 전자 장치는, 상기 메타 데이터를 포함한 비디오를 획득할 수 있다. 전자 장치는, 상기 메타 데이터를 포함한 비디오를, 메모리(예, 도 1, 및/또는 도 2b의 메모리(130)) 내에 저장할 수 있다.
동작 905에서, 일 실시 예에 따른, 전자 장치는, 메타 데이터를 포함한 비디오를 편집(또는 분할)할 수 있다. 예를 들어, 전자 장치는, 상기 비디오를 편집하는 상태 내에서, 상기 메타 데이터와 관련된 정보를 나타낼 수 있다. 예를 들어, 상기 메타 데이터와 관련된 상기 정보는, 상기 비디오 내에 포함된 적어도 하나의 피사체의 위치, 방향 또는 이들의 조합과 관련될 수 있다. 예를 들어, 상기 메타 데이터와 관련된 상기 정보는, 적어도 하나의 센서에 기반하여 획득된 전기적 신호의 변화와 관련될 수 있다. 예를 들어, 상기 메타 데이터와 관련된 상기 정보는, 시간 구간을 포함할 수 있다.
일 실시 예에 따른, 전자 장치는, 메타 데이터와 관련된 정보에 기반하여 비디오의 편집(또는 분할)을 위한 가이드를 제공할 수 있다. 예를 들어, 전자 장치는, 상기 비디오를 편집하는 상태 내에서, 시간 구간 내의 비디오를 편집(또는 분할)하기 위한 가이드를 제공할 수 있다. 예를 들어, 상기 시간 구간은, 적어도 하나의 피사체의 위치가 비디오의 경계 선으로부터 지정된 거리 미만으로 식별된 시점을 포함할 수 있다. 예를 들어, 상기 시간 구간은, 적어도 하나의 피사체의 방향이 지정된 범위를 초과하는 것으로 식별된 시점을 포함할 수 있다. 예를 들어, 상기 시간 구간은, 상기 전자 장치의 적어도 하나의 센서에 기반하여 획득된 전기적 신호가 지정된 범위를 초과하여 변화하는 시점을 포함할 수 있다.
동작 907에서, 일 실시 예에 따른, 전자 장치는, 비디오의 편집(또는 분할)을 위한 가이드를 제공할 수 있다. 전자 장치는, 상기 비디오의 상기 편집을 위한 가이드를 제공한 상태 내에서, 상기 비디오의 편집(또는 분할)을 위한 시각적 객체를 표시할 수 있다. 상기 비디오의 편집은, 상기 비디오의 방향을 회전하는 동작을 포함할 수 있다. 상기 비디오의 편집은, 메타 데이터 내에 포함된 시간 구간과 매칭되는 부분을 분할하는 것을 포함할 수 있다.
일 실시 예에 따른, 전자 장치는, 비디오의 편집을 위한 시각적 객체에 대한 입력을 수신할 수 있다. 예를 들어, 전자 장치는, 상기 편집을 위한 시각적 객체에 대한 입력에 기반하여, 상기 시각적 객체에 매칭되는 동작을 수행할 수 있다. 상기 전자 장치는, 상기 비디오의 편집을 위한 시각적 객체와 상이한, 편집의 완료를 위한 시각적 객체에 대한 입력을 수신할 수 있다. 전자 장치는, 상기 편집의 완료를 위한 시각적 객체에 대한 입력을 수신한 것에 기반하여, 상기 비디오의 편집을 완료(또는 종료)할 수 있다.
동작 909에서, 일 실시 예에 따른, 전자 장치는, 예를 들어, 비디오의 편집을 완료한 이후, 상기 편집된 비디오를 저장할 수 있다. 예를 들어, 전자 장치는, 상기 비디오의 메타 데이터와 관련된 시간 구간이 편집(또는 분할)된 비디오를 메모리 내에 저장할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 적어도 하나의 센서를 이용하여, 상기 전자 장치의 모션이 지정된 모션에 매칭되는지 식별할 수 있다. 전자 장치는, 상기 전자 장치의 상기 모션이 지정된 모션에 매칭되는 시간 구간을 식별할 수 있다. 전자 장치는, 상기 시간 구간을 포함하는 메타 데이터를 획득할 수 있다. 전자 장치는, 상기 메타 데이터를 포함하는 비디오를 획득할 수 있다. 전자 장치는, 상기 비디오를 획득한 것에 기반하여, 상기 비디오를 편집할 수 있다. 전자 장치는, 상기 비디오를 편집하는 상태 내에서, 상기 메타 데이터와 관련된 정보에 기반하여 상기 비디오의 편집을 위한 가이드를 제공할 수 있다. 전자 장치는, 상기 비디오의 편집을 위한 상기 가이드를 제공함으로써, 전자 장치의 사용자 경험을 강화할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)(예, 도 1, 도 2a, 도 2b, 도 3, 도 4, 및/또는 도 5의 전자 장치(101))는, 제1 하우징(예, 도 2a, 및/또는 도 2b의 제1 하우징(230)), 제2 하우징(예, 도 2a, 및/또는 도 2b의 제2 하우징(240)), 상기 제2 하우징(240)을 상기 제1 하우징(230)에 회전 가능하도록(rotatably) 결합하는 힌지 어셈블리(예, 도 2a, 및/또는 도 2b의 힌지 어셈블리(235)), 상기 제1 하우징(230), 상기 힌지 어셈블리, 및 상기 제2 하우징의 각도를 식별하기 위한 센서(예, 도 2b의 센서(220)), 및/또는 도 2b의 홀 센서(223)), 제2 센서, 상기 제1 하우징의 일 면(예, 도 2a, 및/또는 도 2b의 일 면(252)) 상에 제공된 적어도 하나의 카메라(예, 도 2a, 및/또는 도 2b의 카메라(210)), 및 프로세서(예, 도 1, 및/또는 도 2b의 프로세서(120))를 포함할 수 있다. 상기 프로세서는, 촬영 입력(a shooting input)에 기반하여, 상기 적어도 하나의 카메라를 제어하여 비디오(예, 도 3, 도 4, 도 5, 및/또는 도 6의 비디오(310))를 획득하는 상태 내에서, 상기 센서를 이용하여 상기 각도를 식별할 수 있다. 상기 프로세서는, 상기 비디오를 획득하는 상태 내에서, 상기 제2 센서를 이용하여, 상기 전자 장치의 회전 모션의 크기를 식별할 수 있다. 상기 프로세서는, 지정된 범위를 초과하여 변화하는 상기 각도, 또는 지정된 크기를 초과하는 회전 모션 중 적어도 하나가 식별된 시간 구간(예, 도 6의 시간 구간들(601, 602, 603, 604))의 식별에 기반하여, 상기 비디오 내에서 상기 시간 구간에 대응하는 일부분을 분할하기 위한 정보를 획득할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 비디오의 경계 선(border line)으로부터 지정된 거리 미만으로 이격된 상기 지정된 부분 내에서, 상기 적어도 하나의 피사체의 식별에 기반하여, 상기 시간 구간을 나타내는 정보를 획득할 수 있다.
일 실시 예에 따른, 상기 전자 장치는, 제1 센서인 상기 센서와 상이한 제2 센서(예, 도 2b의 센서(220), 도 2b의 가속도 센서(221), 및/또는 도 2b의 자이로 센서(222))를 포함할 수 있다. 상기 프로세서는, 상기 제2 센서를 통해, 상기 전자 장치의 회전 모션의 식별에 기반하여, 상기 시간 구간을 획득할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 제2 센서에 기반하여 획득된, 상기 전자 장치로 작용되는 가속도가 지정된 범위 내임을 식별한 시점을 포함하는, 상기 시간 구간을 획득할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 비디오의 편집과 관련된 화면을 표시하는 동안, 상기 시간 구간을 나타내는 상기 정보를 나타내기 위한 가이드를 상기 화면 내에 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 적어도 하나의 피사체, 및 상기 비디오의 경계 선 사이의 각도가 지정된 임계치를 초과하는 것으로 식별된 것에 기반하여, 상기 지정된 임계치를 초과한 것으로 식별된 시점을 포함하는 시간 구간을 획득할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 지정된 임계치를 초과한 것으로 식별된 상기 시점을 포함하는 상기 시간 구간 내의 상기 비디오를 회전하여 표시하기 위한 정보를 획득할 수 있다.
일 실시 예에 따른, 전자 장치는, 메모리(예, 도 1, 및/또는 도 2b의 메모리(130))를 포함할 수 있다. 상기 프로세서는, 상기 정보와 관련된 메타 데이터를 포함하는 상기 비디오를 상기 메모리 내에 저장할 수 있다.
일 실시 예에 따른, 전자 장치는, 제1 카메라인 상기 적어도 하나의 카메라와 상이한, 제1 면인 상기 일 면에 반대인(opposite to) 제2 면(예, 도 2a, 및/또는 도 2b의 일 면(252))에 제공된 제2 카메라(예, 도 2a, 및/또는 도 2b의 카메라(215)), 및 제1 센서인 상기 센서와 상이한 제2 센서를 더 포함할 수 있다. 상기 프로세서는, 상기 제1 카메라를 제어하여 상기 비디오를 획득하는 상태 내에서, 상기 적어도 하나의 피사체가 상기 지정된 부분 내에서 식별되고, 상기 제2 센서를 통해 상기 전자 장치의 모션과 관련된 파라미터에 기반하여, 상기 제2 카메라를 제어하여 상기 비디오를 획득할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)(예, 도 1, 도 2a, 도 2b, 도 3, 도 4, 및/또는 도 5의 전자 장치(101))의 방법은, 촬영 입력(a shooting input)에 기반하여, 상기 전자 장치의 제1 하우징(예, 도 2a, 및/또는 도 2b의 제1 하우징(230))의 일 면(예, 도 2a의 일 면(252)) 상에 제공된 적어도 하나의 카메라(예, 도 2a, 및/또는 도 2b의 카메라(210))를 제어하여 비디오를 획득하는 상태 내에서, 상기 제1 하우징(230) 및 상기 제2 하우징(240) 사이의 각도를 식별하기 위한 센서(예, 홀 센서(223)를 포함하는 도 2b의 센서(220))를 이용하여, 상기 각도를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 비디오를 획득하는 상태 내에서, 상기 제2 센서를 이용하여, 상기 전자 장치의 회전 모션의 크기를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 지정된 범위를 초과하여 변화하는 상기 각도, 또는 지정된 크기를 초과하는 회전 모션의 크기 중 적어도 하나가 식별된 시간 구간(예, 도 6의 시간 구간들(601, 602, 603, 604))의 식별에 기반하여, 상기 비디오 내에서 상기 시간 구간에 대응하는 일부분을 분할하기 위한 정보를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 비디오의 경계 선으로부터 지정된 거리 미만의 거리로 이격된 상기 지정된 부분 내에서, 상기 적어도 하나의 피사체를 식별하는 것에 기반하여, 상기 시간 구간을 나타내는 정보를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 제1 센서와 상이한 제2 센서(예, 도 2b의 센서(220), 도 2b의 가속도 센서(221), 및/또는 도 2b의 자이로 센서(222))를 통해, 상기 전자 장치의 회전 모션의 식별에 기반하여, 상기 시간 구간을 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 제2 센서에 기반하여 획득된, 상기 전자 장치로 작용되는 가속도가 지정된 범위 내임을 식별한 시점을 포함하는, 상기 시간 구간을 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 비디오의 편집과 관련된 화면을 표시하는 동안, 상기 시간 구간을 나타내는 상기 정보를 나타내기 위한 가이드를 상기 화면 내에 표시하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 적어도 하나의 피사체, 및 상기 비디오의 경계 선 사이의 각도가 지정된 임계치를 초과하는 것으로 식별된 것에 기반하여, 상기 지정된 임계치를 초과한 것으로 식별된 시점을 포함하는 시간 구간을 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 지정된 임계치를 초과한 것으로 식별된 상기 시점을 포함하는 상기 시간 구간 내의 상기 비디오를 회전하여 표시하기 위한 정보를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 정보와 관련된 메타 데이터를 포함하는, 상기 비디오를, 메모리(예, 도 1, 및/또는 도 2b의 메모리(130)) 내에 저장하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 제1 카메라인 상기 적어도 하나의 카메라를 제어하여 상기 비디오를 획득하는 상태 내에서, 상기 적어도 하나의 피사체가 상기 지정된 부분 내에서 식별되고, 제1 센서인 상기 센서와 상이한 제2 센서를 통해, 상기 전자 장치의 모션과 관련된 파라미터에 기반하여, 상기 제1 카메라가 제공된 제1 면인 상기 일 면과 반대인 제2 면에 제공된 제2 카메라를 제어하여 상기 비디오를 획득하는 동작을 포함할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)(예, 도 1, 도 2a, 도 2b, 도 3, 도 4, 및/또는 도 5의 전자 장치(101))는 상기 전자 장치의 모션을 식별하기 위한 적어도 하나의 센서(예, 도 2b의 센서(220), 가속도 센서(221), 자이로 센서(222), 및/또는 홀 센서(223)), 적어도 하나의 카메라(예, 도 2a, 및/또는 도 2b의 카메라(210)), 및 프로세서(예, 도 1 및/또는 도 2b의 프로세서(120))를 포함할 수 있다. 상기 프로세서는, 촬영 입력(a shooting input)에 기반하여, 상기 적어도 하나의 카메라를 제어하여 비디오(예, 도 3, 도 4, 도 5, 및/또는 도 6의 비디오(310))를 획득하는 상태 내에서, 상기 적어도 하나의 센서를 이용하여 상기 전자 장치의 상기 모션을 식별할 수 있다. 상기 프로세서는, 상기 비디오를 분할하기 위한(for segmenting) 지정된 모션들 중 어느 하나에 대응하는 상기 전자 장치의 상기 모션의 식별에 기반하여, 상기 비디오 내에 포함된 적어도 하나의 피사체(예, 도 3, 도 4, 도 5, 및/또는 도 6의 적어도 하나의 피사체(315))의 위치를 식별할 수 있다. 상기 프로세서는, 상기 지정된 모션들 중 어느 하나가 식별된 시간 구간, 또는 상기 적어도 하나의 피사체의 상기 위치를 포함하는 메타 데이터를 획득할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 비디오 내에 포함된 상기 적어도 하나의 피사체의 방향이 지정된 범위를 초과하는 방향임을 식별할 수 있다. 상기 프로세서는, 상기 적어도 하나의 피사체의 상기 방향이 상기 지정된 범위를 초과한 것으로 결정한 것에 기반하여, 상기 적어도 하나의 피사체의 상기 방향을 포함하는 메타 데이터를 획득할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 적어도 하나의 센서를 통해, 상기 전자 장치로 작용되는 가속도를 획득하여 상기 전자 장치의 상기 모션을 식별할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 전자 장치의 제1 하우징, 및 상기 제2 하우징 사이의 각도를 획득하여 상기 전자 장치의 상기 모션을 식별할 수 있다.
일 실시 예에 따른, 상기 전자 장치는, 메모리를 포함할 수 있다. 상기 프로세서는, 상기 메타 데이터를 상기 비디오와 함께 저장할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 적어도 하나의 피사체의 상기 위치가 상기 비디오의 경계 선으로부터 지정된 거리 미만인 것에 기반하여, 상기 적어도 하나의 피사체의 상기 위치를 포함하는 상기 메타 데이터를 획득할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 비디오를 편집(edit)하는 상태 내에서, 상기 메타 데이터에 대응하는 상기 시간 구간, 또는 상기 적어도 하나의 피사체의 상기 위치 중 적어도 하나의 가이드를 제공할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)(예, 도 1, 도 2a, 도 2b, 도 3, 도 4, 및/또는 도 5의 전자 장치(101))의 방법은, 촬영 입력에 기반하여, 적어도 하나의 카메라(예, 도 2a의 카메라(210))를 제어하여 비디오(예, 도 3, 도 4, 도 5, 및/또는 도 6의 비디오(310))를 획득하는 상태 내에서, 상기 전자 장치의 모션을 식별하기 위한 적어도 하나의 센서(예, 도 2b의 센서(220))를 이용하여 상기 전자 장치의 상기 모션을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 비디오를 분할하기 위한 지정된 모션들 중 어느 하나에 대응하는 상기 전자 장치의 상기 모션을 식별하는 것에 기반하여, 상기 비디오 내에 포함된 적어도 하나의 피사체의 위치를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 지정된 모션들 중 어느 하나가 식별된 시간 구간(time interval), 또는 상기 적어도 하나의 피사체의 상기 위치를 포함하는 메타 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 비디오 내에 포함된 상기 적어도 하나의 피사체의 방향이 지정된 범위를 초과하는 방향임을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 적어도 하나의 피사체의 상기 방향이 상기 지정된 범위를 초과한 것을 식별한 것에 기반하여, 상기 적어도 하나의 피사체의 상기 방향을 포함하는 메타 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 적어도 하나의 센서를 통해, 상기 전자 장치로 작용되는 가속도를 획득하여 상기 전자 장치의 상기 모션을 식별하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 전자 장치의 제1 하우징, 상기 제1 하우징에 대하여 회전 가능하도록 제2 하우징을 상기 제1 하우징에 결합하는 힌지 어셈블리, 및 상기 제2 하우징의 각도를 획득하여 상기 전자 장치의 상기 모션을 식별하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 메타 데이터를 상기 비디오와 함께 저장하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 적어도 하나의 피사체의 상기 위치가 상기 비디오의 경계 선으로부터 지정된 거리 미만인 것에 기반하여, 상기 적어도 하나의 피사체의 상기 위치를 포함하는 상기 메타 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 비디오를 편집하는 상태 내에서, 상기 메타 데이터에 대응하는 상기 시간 구간, 또는 상기 적어도 하나의 피사체의 상기 위치 중 적어도 하나의 가이드를 제공하는 동작을 포함할 수 있다.
본 문서에 개시된 하나 이상의 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 전자 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 하나 이상의 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 하나 이상의 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 하나 이상의 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 하나 이상의 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
하나 이상의 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 제공될 수도 있다. 하나 이상의 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 하나 이상의 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치(electronic device)(101)에 있어서,
    제1 하우징(230);
    제2 하우징(240);
    제1 센서(220);
    제2 센서(220);
    상기 제1 하우징(230) 상에 제공된 적어도 하나의 카메라(210); 및
    프로세서(120)를 포함하고,
    상기 프로세서(120)는,
    상기 적어도 하나의 카메라(210)를 제어하여 비디오를 획득하는 상태 내에서, 상기 제1 센서를 이용하여, 상기 제1 하우징 및 상기 제2 하우징 사이의 각도를 식별하고;
    상기 비디오를 획득하는 상태 내에서, 상기 제2 센서(220)를 이용하여, 상기 전자 장치(101)의 회전 모션의 크기를 식별하고; 및
    지정된 범위를 초과하여 변화하는 상기 각도, 또는 지정된 크기를 초과하는 상기 회전 모션의 상기 크기 중 적어도 하나가 식별된 시간 구간에 대응하는, 상기 비디오의 일부분을 분할하기 위한 정보를 획득하도록, 구성된,
    전자 장치(101).
  2. 제1 항에 있어서,
    상기 프로세서는,
    상기 비디오 내에서 적어도 하나의 피사체를 식별하고; 및
    지정된 거리 미만으로 상기 비디오의 경계 선(border line)으로부터 이격된 지정된 부분 내에서 식별된 상기 적어도 하나의 피사체에 기반하여, 상기 정보를 획득하도록, 더 구성된,
    전자 장치.
  3. 제1 항 내지 제2 항 중 어느 한 항에 있어서,
    상기 프로세서는,
    상기 제2 센서를 이용하여, 상기 전자 장치의 상기 식별된 회전 모션에 기반하여, 상기 시간 구간을 획득하도록, 더 구성된,
    전자 장치.
  4. 제3 항에 있어서,
    상기 프로세서는,
    상기 제2 센서에 기반하여, 상기 전자 장치로 작용되는 가속도가 지정된 범위 내임을 식별한 시점을 포함하는, 상기 시간 구간을 획득하도록, 더 구성된,
    전자 장치.
  5. 제1 항 내지 제4 항 중 어느 한 항에 있어서, 상기 비디오의 편집과 관련된 화면을 더 포함하고,
    상기 프로세서는,
    상기 시간 구간 및 상기 정보를 나타내기 위한 가이드를 상기 화면 상에 표시하도록, 더 구성된,
    전자 장치.
  6. 제1 항 내지 제5 항 중 어느 한 항에 있어서,
    상기 프로세서는,
    지정된 임계치를 초과하는 상기 적어도 하나의 피사체, 및 상기 비디오의 경계 선 사이의 각도에 기반하여, 상기 지정된 임계치를 초과한 것으로 식별된 시점을 포함하는 시간 구간을 획득하도록, 더 구성된,
    전자 장치.
  7. 제6 항에 있어서,
    상기 프로세서는,
    상기 시점을 포함하는 상기 시간 구간 내의 상기 비디오를 회전하여 표시하기 위한 정보를 획득하도록, 더 구성된,
    전자 장치.
  8. 제1 항 내지 제7 항 중 어느 한 항에 있어서,
    메모리를 더 포함하고,
    상기 프로세서는,
    상기 메모리에, 상기 정보와 관련된 메타 데이터를 포함하는 상기 비디오를 저장하도록, 더 구성된,
    전자 장치.
  9. 제1 항 내지 제8 항 중 어느 한 항에 있어서,
    상기 제1 하우징 상에 제공된 제2 카메라를 더 포함하고,
    상기 프로세서는,
    상기 제1 카메라를 제어하여 상기 비디오를 획득하는 상태 내에서, 상기 지정된 부분 내 상기 식별된 적어도 하나의 피사체에 기반하고, 상기 전자 장치의 회전 모션과 관련된 파라미터에 기반하여, 상기 제2 카메라를 제어하여 상기 비디오를 획득하도록, 더 구성된,
    전자 장치.
  10. 전자 장치(electronic device)에 의해 수행되는 방법에 있어서,
    상기 전자 장치의 제1 하우징 상에 제공된 적어도 하나의 카메라를 제어하여 비디오를 획득하는 상태 내에서, 제1 센서를 이용하여, 상기 제1 하우징, 및 상기 제2 하우징 사이의 각도를 식별하는 동작;
    상기 비디오를 획득하는 상태 내에서, 상기 제2 센서를 이용하여, 상기 전자 장치의 회전 모션의 크기를 식별하는 동작; 및
    지정된 범위를 초과하여 변화하는 상기 각도, 또는 지정된 크기를 초과하는 상기 회전 모션의 상기 크기 중 적어도 하나가 식별된 시간 구간에 대응하는, 상기 비디오의 일부분을 분할하기 위한 정보를 획득하는 동작을 포함하는,
    방법.
  11. 제10 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 비디오 내에서 적어도 하나의 피사체를 식별하는 동작; 및
    지정된 거리 미만으로 상기 비디오의 경계 선으로부터 이격된 상기 지정된 부분 내 상기 식별된 적어도 하나의 피사체에 기반하여, 상기 시간 구간을 나타내는 정보를 획득하는 동작을 더 포함하는,
    방법.
  12. 제10 항 내지 제11 항 중 어느 한 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 제2 센서를 이용하여, 상기 전자 장치의 상기 식별된 회전 모션에 기반하여, 상기 시간 구간을 획득하는 동작을 더 포함하는,
    방법.
  13. 제12 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 전자 장치로 작용되는 가속도가 지정된 범위 내임을 식별한 시점을 포함하는, 상기 시간 구간을 획득하는 동작을 더 포함하는,
    방법.
  14. 제10 항 내지 제13 항 중 어느 한 항에 있어서,
    상기 전자 장치의 상기 방법은,
    상기 시간 구간 및 상기 정보를 나타내기 위한 가이드를 화면 내에 표시하는 동작을 더 포함하고, 상기 화면은, 상기 비디오의 편집과 관련된,
    방법.
  15. 제10 항 내지 제14 항 중 어느 한 항에 있어서,
    상기 전자 장치의 상기 방법은,
    지정된 임계치를 초과하는, 상기 적어도 하나의 피사체, 및 상기 비디오의 경계 선 사이의 각도에 기반하여, 상기 지정된 임계치를 초과한 것으로 식별된 시점을 포함하는 시간 구간을 획득하는 동작을 포함하는,
    방법.
PCT/KR2023/007103 2022-08-30 2023-05-24 비디오를 획득하는 동안 메타 데이터를 획득하는 전자 장치 및 그 방법 WO2024048911A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/211,030 US20240070878A1 (en) 2022-08-30 2023-06-16 Electronic device obtaining metadata while obtaining video and method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0109504 2022-08-30
KR20220109504 2022-08-30
KR1020220130982A KR20240030889A (ko) 2022-08-30 2022-10-12 비디오를 획득하는 동안 메타 데이터를 획득하는 전자 장치 및 그 방법
KR10-2022-0130982 2022-10-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/211,030 Continuation US20240070878A1 (en) 2022-08-30 2023-06-16 Electronic device obtaining metadata while obtaining video and method thereof

Publications (1)

Publication Number Publication Date
WO2024048911A1 true WO2024048911A1 (ko) 2024-03-07

Family

ID=90098189

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/007103 WO2024048911A1 (ko) 2022-08-30 2023-05-24 비디오를 획득하는 동안 메타 데이터를 획득하는 전자 장치 및 그 방법

Country Status (1)

Country Link
WO (1) WO2024048911A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120120264A1 (en) * 2010-11-12 2012-05-17 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
US9124804B2 (en) * 2010-03-22 2015-09-01 Microsoft Technology Licensing, Llc Using accelerometer information for determining orientation of pictures and video images
KR101588031B1 (ko) * 2008-11-21 2016-02-12 코닌클리케 필립스 엔.브이. 비디오의 전역 움직임 벡터들에 기초한, 동일한 이벤트의 비디오 및 정지 사진들의 병합
KR102231676B1 (ko) * 2014-12-23 2021-03-25 한국전자통신연구원 실감 효과 메타데이터 생성 장치 및 방법
KR20210102010A (ko) * 2020-02-10 2021-08-19 삼성전자주식회사 플렉서블 디스플레이를 갖는 전자 장치의 운영 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101588031B1 (ko) * 2008-11-21 2016-02-12 코닌클리케 필립스 엔.브이. 비디오의 전역 움직임 벡터들에 기초한, 동일한 이벤트의 비디오 및 정지 사진들의 병합
US9124804B2 (en) * 2010-03-22 2015-09-01 Microsoft Technology Licensing, Llc Using accelerometer information for determining orientation of pictures and video images
US20120120264A1 (en) * 2010-11-12 2012-05-17 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
KR102231676B1 (ko) * 2014-12-23 2021-03-25 한국전자통신연구원 실감 효과 메타데이터 생성 장치 및 방법
KR20210102010A (ko) * 2020-02-10 2021-08-19 삼성전자주식회사 플렉서블 디스플레이를 갖는 전자 장치의 운영 방법 및 장치

Similar Documents

Publication Publication Date Title
WO2022131549A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2021261949A1 (ko) 디스플레이의 폴딩 상태에 따른 이용 방법 및 이를 이용한 전자 장치
WO2021066564A1 (ko) 복수의 카메라들을 포함하고 형태가 변하는 전자 장치 및 이미지 촬영 방법
WO2023022567A1 (ko) 폴더블 전자 장치 및 디지털 홀 센서를 이용한 폴더블 전자 장치의 제어 방법
WO2022080730A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 방법
WO2024048911A1 (ko) 비디오를 획득하는 동안 메타 데이터를 획득하는 전자 장치 및 그 방법
WO2022045579A1 (ko) 외부 장치의 위치를 보정하기 위한 전자 장치 및 그의 동작 방법
WO2022039501A1 (ko) 플렉서블 디스플레이를 구비한 전자 장치
WO2023013904A1 (ko) 화면 제어 방법 및 장치
WO2023054948A1 (ko) 가변 디스플레이를 포함하는 전자 장치 및 그의 동작 방법
WO2024063380A1 (ko) 플렉서블 디스플레이에 표시되는 화면을 제어하기 위한 전자 장치 및 방법
WO2024080553A1 (ko) 전자 장치 및 그 동작 방법
WO2024029748A1 (ko) 플렉서블 디스플레이의 형태에 기반하여, 복수의 어플리케이션들에 의한 화면들을 표시하기 위한 전자 장치, 방법 및 컴퓨터 판독 가능 저장 매체
WO2022114885A1 (ko) 스타일러스를 이용한 전자 장치의 제어 방법 및 그 방법을 이용하여 스타일러스로부터 입력을 받는 전자 장치
WO2024043440A1 (ko) 애플리케이션의 화면을 표시하는 디스플레이를 복수의 디스플레이들 간 전환하기 위한 방법 및 장치
WO2023214653A1 (ko) 연성 인쇄 회로 기판을 지지하기 위한 구조를 포함하는 전자 장치
WO2022260248A1 (ko) 컨텐츠를 디스플레이에 표시하기 위한 방법 및 장치
WO2024063379A1 (ko) 균일한 표시 영역을 제공하기 위한 디스플레이 및 이를 포함하는 전자 장치
WO2024029740A1 (ko) 입력 장치를 이용하여 드로잉 데이터를 출력하는 방법 및 장치
WO2024034774A1 (ko) 복수의 디스플레이들을 포함하는 전자 장치 및 복수의 디스플레이들의 화질 편차를 줄이는 방법
WO2024049042A1 (ko) 제스쳐의 궤적을 변경하기 위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체
WO2024053911A1 (ko) 전자 장치의 내에서 발생되는 열을 분산시키기 위한 구조를 포함하는 전자 장치
WO2024019285A1 (ko) 가입자 식별 모듈 정보를 이용하여 실행된 애플리케이션의 화면 표시 방법 및 장치
WO2024080648A1 (ko) 폴더블 전자 장치 및 폴더블 전자 장치의 사용자 입력 처리 방법
WO2024063376A1 (ko) 디스플레이를 이용하여 컨텐츠를 표시하는 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23860598

Country of ref document: EP

Kind code of ref document: A1