WO2019164286A1 - 전자 장치 및 그의 녹화 방법 - Google Patents

전자 장치 및 그의 녹화 방법 Download PDF

Info

Publication number
WO2019164286A1
WO2019164286A1 PCT/KR2019/002108 KR2019002108W WO2019164286A1 WO 2019164286 A1 WO2019164286 A1 WO 2019164286A1 KR 2019002108 W KR2019002108 W KR 2019002108W WO 2019164286 A1 WO2019164286 A1 WO 2019164286A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion detection
detection area
processor
electronic device
recording
Prior art date
Application number
PCT/KR2019/002108
Other languages
English (en)
French (fr)
Inventor
최나리
강화영
김지연
서경열
신새벽
오영학
이재한
최준호
황호익
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/966,995 priority Critical patent/US11696013B2/en
Priority to CN201980014191.8A priority patent/CN111742543A/zh
Priority to EP19757274.6A priority patent/EP3742720A4/en
Publication of WO2019164286A1 publication Critical patent/WO2019164286A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B39/00High-speed photography
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Definitions

  • Various embodiments of the present invention relate to an electronic device and a recording method thereof.
  • Electronic devices may provide various functions.
  • smart phones may include near field communication (e.g., Bluetooth, Wi-Fi, or near field communication), and mobile communication (3G (generation)). , 4G, 5G, etc.), a music or video playback function, a photo or video recording function, or a navigation function.
  • the electronic device may generally capture a video at a rate of 30 frames per second (fps).
  • Modern electronic devices include high performance image sensors.
  • recent electronic devices may include an image sensor capable of capturing at a speed several times to several tens of times that of a general photographing.
  • Recent electronic devices may support high speed photography.
  • the electronic device provides a manual method of performing high speed photographing according to a user's request.
  • a user of the electronic device may photograph a fast moving object (or subject) or a desired moment (eg, when a shooting star falls) at high speed.
  • the object may disappear before the user presses the ultra-fast shooting button (or a shooting menu, a shooting icon, or the like), or the moment when the user wants to shoot may pass.
  • various embodiments of the present invention can provide an electronic device and a recording method thereof capable of automatically performing super high speed recording (or super slow recording) when a specified condition is satisfied. have.
  • Various embodiments of the present disclosure may provide an electronic device and a recording method thereof capable of automatically performing ultra high speed photographing when a motion is detected in a designated area of a screen.
  • Various embodiments of the present disclosure may provide an electronic device and a recording method thereof capable of changing the size, ratio, and / or location of a designated area for motion detection.
  • Various embodiments of the present disclosure may provide an electronic device and a recording method thereof capable of changing the focus of an image sensor to an ultra high speed photographing target during ultra high speed photography.
  • An electronic device may include, for example, a touch screen; An image sensor for acquiring an image; A processor operatively connected with the touch screen and the image sensor; And a memory operatively connected to the processor, wherein when the memory is executed, the processor designates at least a portion of the screen of the touch screen as a motion detection area, and whether motion is detected in the motion detection area. And instructions for controlling ultra low speed recording by controlling the image sensor in response to motion detection in the motion detection area.
  • a recording method of an electronic device may include, for example, designating at least a portion of a screen as a motion detection region; Checking whether motion is detected in the motion detection area; And controlling the image sensor to perform ultra-low speed recording in response to the motion being detected in the motion detection area.
  • Various embodiments of the present invention can automatically perform ultra-low speed recording, thereby improving user convenience for ultra-low speed recording.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 2 is a flowchart illustrating a recording method of an electronic device according to an embodiment of the present disclosure.
  • 3A, 3B, and 4 are exemplary diagrams for describing a recording method of an electronic device according to an embodiment of the present disclosure.
  • FIG. 5 is a flowchart illustrating a method for preventing on-recording according to an embodiment of the present invention.
  • FIG. 6 is an exemplary view for explaining a method for preventing on-recording according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a method of editing a motion detection region according to an embodiment of the present invention.
  • 8A and 8B are exemplary diagrams for describing a method of editing a motion detection region according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a recording method of an electronic device according to an embodiment of the present disclosure.
  • 10A and 10B are exemplary diagrams for describing a recording method of an electronic device according to an embodiment of the present disclosure.
  • FIG. 11 is a flowchart illustrating a focus setting method when recording an electronic device according to an embodiment of the present disclosure.
  • 12A and 12B are exemplary diagrams for describing a focus setting method when recording an electronic device according to an embodiment of the present disclosure.
  • FIG. 13 is a flowchart illustrating a method of shifting focus when recording an electronic device according to an embodiment of the present invention.
  • FIG. 14 is an exemplary diagram for describing a method of shifting focus when recording an electronic device according to an embodiment of the present disclosure.
  • 15 is a flowchart illustrating a method of setting a motion detection region according to an embodiment of the present invention.
  • 16 is an exemplary diagram for describing a method for setting a motion detection region according to an embodiment of the present invention.
  • ultra-low speed recording will be described below by recording an image at a speed tens of times faster than a typical shooting speed (e.g., 30 fps (frame per second)) (e.g., 960 fps).
  • a typical shooting speed e.g. 30 fps (frame per second)
  • 960 fps means a recording method that plays slower than normal speed by playing back at normal speed. For example, when shooting at 960 fps for 0.2 seconds, and playback at 30 fps can be played for 6.4 seconds. As such, the image captured for 0.2 seconds may be reproduced very slowly as the image captured for 6.4 seconds.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (for example, near field communication), or the second network 199 ( For example, it may communicate with the electronic device 104 or the server 108 through remote wireless communication.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 may include a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module ( 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, and antenna module 197. ) May be included.
  • the electronic device 101 may omit at least one of these components (eg, the haptic module 179, the antenna module 197, or the subscriber identification module 196), or one or more other components. May be added.
  • some of these components may be implemented in one integrated circuit.
  • the sensor module 176 eg, fingerprint sensor, iris sensor, or illuminance sensor
  • the display device 160 eg, display.
  • the processor 120 executes software (eg, the program 140) to execute at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing and operations. According to one embodiment, as at least part of data processing or operation, processor 120 may send instructions or data received from another component (eg, sensor module 176 or communication module 190) to volatile memory 132. Can be loaded into, processed in a command or data stored in volatile memory 132, and stored in the non-volatile memory (134).
  • software eg, the program 140
  • processor 120 may send instructions or data received from another component (eg, sensor module 176 or communication module 190) to volatile memory 132. Can be loaded into, processed in a command or data stored in volatile memory 132, and stored in the non-volatile memory (134).
  • the processor 120 may include a main processor 121 (eg, a central processing unit or an application processor), and a coprocessor 123 (eg, a graphics processing unit, an image signal processor) that may operate independently or together. , Sensor hub processor, or communication processor). Additionally or alternatively, the coprocessor 113 may be configured to use lower power than the main processor 121 or to be specialized for its designated function.
  • the coprocessor 123 may be implemented separately from or as part of the main processor 121.
  • the coprocessor 123 may, for example, replace the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 may be active (eg, execute an application). At least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) together with the main processor 121 while in the) state. Control at least some of the functions or states associated with the. According to one embodiment, the coprocessor 123 (eg, an image signal processor or communication processor) may be implemented as part of other functionally related components (eg, camera module 180 or communication module 190). have.
  • the processor 120 may control ultra low speed recording (or ultra high speed photography). For example, when the processor 120 satisfies a specified condition (eg, detecting motion or detecting a specific object (eg, a person, a car, etc.) in a designated area of the screen), the processor 120 may control the automatic execution of ultra low speed shooting. . Detailed description of the processor 120 will be described later.
  • a specified condition eg, detecting motion or detecting a specific object (eg, a person, a car, etc.) in a designated area of the screen
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101.
  • the data may include, for example, software (eg, the program 140) and input data or output data for a command related thereto.
  • the memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
  • the program 140 may be stored as software stored in the memory 130 and may include, for example, an operating system 142, middleware 144, or an application 146.
  • the input device 150 may receive a command or data to be used for a component (for example, the processor 120) of the electronic device 101 from the outside (for example, a user) of the electronic device 101.
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output a sound signal to the outside of the electronic device 101.
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker may be used for general purposes such as multimedia playback or recording playback, and the receiver may be used to receive an incoming call.
  • the receiver may be implemented separately from or as part of a speaker.
  • the display device 160 may visually provide information to the outside (eg, a user) of the electronic device 101.
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 160 may include touch circuitry configured to sense a touch, or a sensor circuit (eg, a pressure sensor) configured to measure the strength of a force generated in the touch.
  • the display device 160 may be a touch screen.
  • the display device 160 may display various screens and interfaces for ultra high speed photography. Detailed description thereof will be described later.
  • the audio module 170 may convert sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 may acquire sound through the input device 150, or may output an external electronic device (eg, a sound output device 155, or directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • an external electronic device eg, a sound output device 155, or directly or wirelessly connected to the electronic device 101. Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • the sensor module 176 detects an operating state (eg, power or temperature) or an external environmental state (eg, a user state) inside the electronic device 101, and detects an electrical signal or data value corresponding to the detected state. Can be generated.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the sensor module 176 may generate and transmit an electric signal or data value corresponding to the movement of the electronic device 101 during the ultra-high speed photographing to the processor 120.
  • the interface 177 may support one or more designated protocols that may be used for the electronic device 101 to be directly or wirelessly connected to an external electronic device (for example, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and videos.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the camera module 180 may be located on one side (eg, front, rear, or side) of the electronic device 101.
  • the camera module 180 may support high speed or ultra high speed photography that is several times to tens of times faster than the first shooting speed (eg, 30 fps).
  • the camera module 180 may support ultra high speed photography at a second shooting speed (eg, 960 fps).
  • the camera module 180 according to an embodiment of the present invention may automatically move the focus to a shooting target during ultra high speed shooting.
  • the power management module 188 may manage power supplied to the electronic device 101.
  • the power management module 188 may be configured, for example, as at least part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell or a fuel cell.
  • the communication module 190 may establish a direct (eg wired) communication channel or wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establish and perform communication over established communication channels.
  • the communication module 190 may operate independently of the processor 120 (eg, an application processor) and include one or more communication processors supporting direct (eg, wired) or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg It may include a local area network (LAN) communication module, or a power line communication module.
  • GNSS global navigation satellite system
  • the corresponding communication module of these communication modules may be a first network 198 (e.g. a short range communication network such as Bluetooth, WiFi direct or infrared data association (IrDA)) or a second network 199 (e.g. cellular network, the Internet, or Communicate with external electronic devices via a telecommunications network, such as a computer network (eg, LAN or WAN).
  • a first network 198 e.g. a short range communication network such as Bluetooth, WiFi direct or infrared data association (IrDA)
  • a second network 199 e.g. cellular network, the Internet, or Communicate with external electronic devices via a telecommunications network, such as a computer network (eg, LAN or WAN).
  • a telecommunications network such as a computer network (eg, LAN or WAN).
  • the wireless communication module 192 uses subscriber information (e.g., international mobile subscriber identifier (IMSI)) stored in the subscriber identification module 196 in a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., international mobile subscriber identifier (IMSI)
  • IMSI international mobile subscriber identifier
  • the antenna module 197 may transmit or receive a signal or power to an external (eg, an external electronic device) or from the outside.
  • the antenna module may include one antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, a PCB).
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for the communication scheme used in the communication network, such as the first network 198 or the second network 199, is for example by means of the communication module 190 from the plurality of antennas. Can be selected.
  • the signal or power may be transmitted or received between the communication module 190 and the external electronic device through the at least one selected antenna.
  • other components eg, RFICs
  • peripheral devices eg, a bus, a general purpose input / output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input / output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.
  • all or some of the operations performed by the electronic device 101 may be performed by one or more external electronic devices of the external electronic devices 102, 104, or 108.
  • the electronic device 101 when the electronic device 101 needs to perform a function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that receive the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the execution result to the electronic device 101.
  • the electronic device 101 may process the result as it is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, or client-server computing technology may be used.
  • An electronic device may include a touch screen (eg, the display device 160); An image sensor (eg, camera module 180) for acquiring an image; A processor (eg, processor 120) operatively connected to the touch screen and the image sensor; And a memory (eg, memory 130) operatively connected to the processor, wherein when the memory is executed, the processor designates at least a portion of the screen of the touch screen as a motion detection region, and Instructions for determining whether motion is detected in the motion detection area and controlling the image sensor to perform ultra low speed recording in response to motion detection in the motion detection area may be stored.
  • a touch screen eg, the display device 160
  • An image sensor eg, camera module 180
  • a processor eg, processor 120
  • a memory eg, memory 130
  • the memory may further store at least one of an instruction for notifying the user that motion detection in the motion detection area is being performed, or an instruction for notifying the user that the ultra slow recording is being performed. Can be.
  • the memory may further store instructions for changing at least one of a size, a ratio, or a position of the motion detection area in response to an edit request of the motion detection area.
  • the electronic device further includes at least one sensor for detecting a movement of the electronic device, and the memory is configured to detect the movement of the electronic device through the at least one sensor. Instructions may be stored to stop motion detection in the area.
  • the memory may further store instructions for setting the focus of the image sensor based on the center of the motion detection area in response to designation of the motion detection area.
  • the memory may further store instructions for moving the focus of the image sensor toward the center of the motion detection area in response to motion detection in the motion detection area.
  • the memory may further store an instruction to set an area for focus movement of the image sensor to be larger than the motion detection area.
  • the memory may further include instructions for tracking a movement path of the ultra-low speed recording object, predicting a movement path based on the tracking result, and moving the motion detection area to the expected movement path. Can store more.
  • the memory may further store an instruction to perform ultra low speed recording in response to a user input for an ultra low speed recording menu displayed on one side of a screen.
  • the memory may be configured to move the focus of the motion detection area and the image sensor based on the touch occurrence point when a touch is detected on one side of the screen while the motion is detected in the motion detection area. You can store more instructions.
  • FIGS. 3A, 3B, and 4 are exemplary views illustrating a recording method of an electronic device according to an embodiment of the present invention. to be.
  • a processor eg, the processor 120 of FIG. 1 of an electronic device (eg, the electronic device 101 of FIG. 1) according to an embodiment of the present disclosure may be used. At least some areas of the screen may be designated as motion detection areas.
  • the motion sensing region may be designated automatically or manually.
  • the processor when the processor activates the ultra low speed recording function 311, as shown in the diagram 310 of FIG. 3A, the processor may be configured based on the center of the ultra low speed recording standby screen (for example, the preview screen).
  • An area of a designated (or set) size (eg, 1/3 of the screen size) may be designated as the motion detection area 301.
  • the idle screen is a visual indicator (eg, rectangular box) and various menus (eg, setup menu, flash on / off menu, recording menu, gallery menu, camera menu) so that the user can recognize the motion detection area. And the like).
  • the processor may designate at least a portion of the screen as the motion detection region based on a gesture of the user (eg, a user gesture of drawing a closed loop). For example, a rectangular area having a minimum size that may include a closed loop of circles or polygons corresponding to a user's gesture may be designated as a motion detection area.
  • the user may edit the size, position, and ratio of the motion detection region by using various interactions (eg, touch and drag). Detailed description thereof will be described later with reference to FIGS. 7, 8A and 8B.
  • the processor may notify the user that the user is waiting for the motion detection (or the ultra low speed recording is waiting). For example, the processor may move when the recording command is input (for example, when the recording menu 302 is touched) after the motion detection region is designated (set), as shown in the diagram 310 of FIG. 3A. It can be notified that it is detecting. In this case, the processor may record an image at a first photographing speed (eg, 30 fps). The notification may be provided visually. For example, the processor may display the line of the rectangular box indicating the motion detection region 301 in bold as shown in the drawing of reference numeral 320 of FIG. 3A. Alternatively, the processor may change the color or line type of the line.
  • the processor may change the color or line type of the line.
  • the processor may visually notify that the motion is waiting to be detected using the color, transparency, and the like of the recording button.
  • the processor may provide a separate visual indicator (eg, icon, or text).
  • the processor may display the indicator 402 in the form of a circular band instead of the recording menu 302, as shown in the diagram 410 of FIG.
  • the processor may notify at least one of tactile or auditory sense that it is waiting to detect motion. According to some embodiments, at least two of the above-described various notification methods may be combined to notify the user of waiting for motion detection.
  • the processor may determine whether motion is detected in the motion detection region. For example, the processor may check whether the image of the motion detection region is changed. Alternatively, the processor may check whether a moving subject is detected in the motion detection area.
  • the processor may proceed to operation 211 described later.
  • the processor may perform ultra-low speed recording in operation 207.
  • the processor may capture an image using an image sensor (for example, the camera module 180) at a shooting speed (for example, 960 fps) of several times to several tens of times the normal shooting speed (for example, 30 fps). have.
  • the ultra low speed recording may be performed for a predetermined time (for example, 0.2 seconds) in consideration of the performance of the image sensor.
  • the processor may notify the user that the ultra low speed recording is in progress.
  • the processor may visually notify that ultra slow recording is in progress.
  • the processor may further sequentially display a rectangular box having a small size inside the rectangular box representing the motion detection region 301 to effect animation. Can be provided.
  • the processor may fill the circular band-shaped indicator 402 with a designated color over time, as shown in the diagram 420 of FIG. 4.
  • embodiments of the present invention are not limited thereto, and may visually notify that ultra-low speed recording is being performed using various methods (for example, displaying a separate icon or blinking a recording button).
  • the processor may notify at least one of tactile or hearing that ultra-low speed recording is in progress.
  • at least two of the above-described schemes may be combined to notify that ultra-low speed recording is in progress.
  • the processor may visually notify the user when the ultra low speed recording is completed.
  • the processor may provide information on the number of recordings in the multi mode in which the ultra low speed recording is performed a plurality of times. For example, as shown in the diagram 350 of FIG. 3B, the number of ultra low-speed recordings displays a plurality of indicators (eg, corresponding to the total number of times), and changes the color of the indicator by one each time the ultra low-speed recording is completed. Can be. Drawing 350 of FIG. 3B may mean that ultra-low speed recording is completed once.
  • the processor may check whether recording is terminated. For example, when the recording end menu is touched, the processor may determine (or recognize) that the recording is finished. Alternatively, the processor may determine that the recording is ended when the last ultra low speed recording of the set number of ultra low speed recordings (eg, 20 times) is completed. According to an embodiment of the present disclosure, in the single mode in which the ultra low speed recording is performed only once, the processor may skip the operation 211 and determine that the recording is completed when the ultra low speed recording is completed.
  • the processor may proceed to operation 205 and repeat the above operation.
  • the processor may store the recorded image and end the recording control according to an embodiment of the present invention.
  • the recorded video may include a general video recorded at a general speed (30 fps) of about 1 second before starting the ultra low speed recording and a general video recorded at about 1 second after the completion of the ultra low speed recording.
  • operations 203 and 209 of FIG. 2 may be omitted.
  • FIG. 5 is a flowchart illustrating a method for preventing on-recording according to an embodiment of the present invention
  • FIG. 6 is an exemplary view for explaining a method for preventing on-recording according to an embodiment of the present invention. .
  • a processor eg, the processor 120 of FIG. 1 of an electronic device (eg, the electronic device 101 of FIG. 1) according to an embodiment of the present disclosure may be used. It may be checked whether the movement of the electronic device is detected. For example, the processor may determine whether a sensor signal or data value corresponding to the movement of the electronic device is received from the sensor module (eg, the sensor module 176 of FIG. 1). Operation 501 may be performed after operation 203 of FIG. 2. According to some embodiments, the operation 501 may be performed after the operation 201.
  • the processor may proceed to operation 205 of FIG. 2.
  • the processor may stop the automatic ultra-low speed recording according to the movement detection.
  • the processor may stop motion detection in the motion detection area.
  • the processor may provide a warning message for stopping the movement of the electronic device.
  • the processor may control the display (eg, the display device 160 of FIG. 1) to output a warning message 601 such as “do not move the terminal” as shown in FIG. 6. have.
  • the processor may blur the screen (for example, dimming) so that the user can recognize that the automatic ultra low speed recording is stopped due to the movement of the terminal.
  • the processor may remove the rectangular box representing the motion detection region 602 or display different line colors, line types, and the like.
  • One embodiment of the present invention described above can prevent false recording due to the movement of the electronic device.
  • an embodiment of the present invention solves the problem (malfunction) of automatically performing ultra-low speed recording by recognizing that motion is detected in the motion detection area when the electronic device moves while waiting for ultra-low speed recording. Can be.
  • FIGS. 8A and 8B are exemplary views for explaining a method of editing a motion detection area according to an embodiment of the present invention. to be.
  • the processor eg, the processor 120 of FIG. 1 of the electronic device (eg, the electronic device 101) may perform a motion detection region in operation 701. Edit request of can be detected. For example, as illustrated in the reference numeral 810 of FIG. 8A, the processor may display a line of the user gesture (eg, the long touch 802 or the motion detection area 801 inside the motion detection area 801). When detecting the touch (or tap) 803, it may be recognized that editing of the motion detection region 801 is requested. According to some embodiments, the processor may recognize that the editing of the motion detection region 801 is requested when the editing menu included in the setting menu is selected.
  • the processor may recognize that the editing of the motion detection region 801 is requested when the editing menu included in the setting menu is selected.
  • the processor When entering the edit state (or edit mode) in response to the edit request, the processor edits the motion detection region 801 using the visual indicator 804 as shown in the reference numeral 820 of FIG. 8A.
  • the user can be notified that this is possible. This is merely an example, and embodiments of the present invention may notify that the motion detection area 801 is in an edited state in various ways.
  • the processor may provide a help (or guide information) 805 on one side of the screen.
  • Editing of the motion detection area 801 is a screen for checking whether a motion is detected in the motion detection area after a recording standby screen (for example, a screen before input of a recording button (preview screen)) or a motion detection standby screen (for example, after a recording button is input. May be requested.
  • a recording standby screen for example, a screen before input of a recording button (preview screen)
  • a motion detection standby screen for example, after a recording button is input. May be requested.
  • the processor may adjust (change) at least one of a size, a ratio, and a position of the motion detection region in response to a user interaction. For example, the processor detects a user gesture 806 that touches the upper left corner of the motion detection area 801 and then drags it in the lower right direction, as shown by reference numerals 820 and 830 of FIG. 8A. The size of the visual motion detection region 801 may be reduced.
  • the processor may touch the inside of the motion detection area 801 and then drag the user gesture 807 in an arbitrary direction (eg, in the lower left direction). ) May move the position of the motion detection region 801.
  • the motion detection region 801 may have a ratio of width and height changed.
  • the motion detection region 801 may be the entire screen, as shown in the diagram 833 of FIG. 8B.
  • the processor may display a visual representation (eg, rectangular box) of the motion detection area 801 as shown in the drawing of the identification code 835 of FIG. 8B. ) May not be provided (indicated).
  • the processor may determine whether editing is completed in operation 705. For example, the processor may determine that the editing is completed when the user input is not sensed for a specified time (for example, 3 seconds) or when an input for requesting a separate editing end is received.
  • a specified time for example, 3 seconds
  • the processor returns to operation 703 and repeats the above-described operation.
  • the processor may end the editing of the motion detection region. For example, when the editing is completed, the processor may remove the visual indicator 804 indicating that the editing state, as shown in the diagram 840 of FIG. 8A.
  • FIGS. 10A and 10B are exemplary views illustrating a recording method of an electronic device according to an embodiment of the present invention.
  • a processor eg, the processor 120 of FIG. 1 of an electronic device (eg, the electronic device 101) according to an embodiment of the present disclosure may perform ultra-low speed recording in operation 901. (Or ultra-fast shooting) function can be detected.
  • the processor may control a display (for example, the display device 160 of FIG. 1) to display a recording standby screen.
  • the recording standby screen may include a motion detection function button (or menu) 1001, an ultra-low speed recording button 1002, a recording button 1003, and a pause button (as shown in the diagram 1010 of FIG. 10A). 1004) and recording time information 1005 may be included on one side.
  • the processor may detect a recording request in operation 903.
  • the processor may detect a touch of the record button 1003.
  • the processor may capture an image at a first photographing speed (eg, 30 fps) in operation 905.
  • the processor may record an image of a first photographing speed, as shown in the drawing of reference numeral 1020 of FIG. 10A.
  • the recording button 1003 may be changed to the recording end button 1006.
  • the processor may determine whether ultra-low speed recording is requested. For example, the processor may check whether the ultra low speed recording button 1002 is touched.
  • the processor may proceed to operation 911 described later.
  • the processor may perform the ultra-low speed recording by capturing an image at a second shooting speed (for example, 960 fps) in operation 909.
  • the processor may perform ultra low speed recording when the ultra low speed recording button 1002 is touched during normal recording, as shown in the drawings 1020 and 1030 of FIG. 10A. In this case, the processor may visually notify the user that the ultra low speed recording is in progress.
  • the processor may change at least one of the color, shape, or transparency of the ultra low speed recording button 1002, the pause button 1004, and the recording end button 1006.
  • the processor may display text information 1007 indicating that recording is on one side of the screen.
  • embodiments of the present invention may manually perform ultra low speed recording using the ultra low speed recording button 1002.
  • the processor may determine whether activation of the motion detection function is requested in operation 911. For example, the processor may check whether the motion detection function button 1001 is touched, as shown in the diagram 1040 of FIG. 10B.
  • the processor may proceed to operation 915 described later.
  • the processor may automatically perform ultra-low speed recording in response to the motion detection.
  • the processor may automatically perform ultra-low speed recording when motion is detected in a designated motion detection area.
  • the processor may visually notify that ultra slow recording is in progress.
  • the processor may automatically notify the user in a manner different from the visual notification of the ultra slow recording performed by the user of the diagram 1030 of FIG.
  • the processor may provide an animation of sequentially displaying a plurality of points along the periphery of the ultra-low speed recording button 1002, as shown by the reference numeral 1040 of FIG. 10B.
  • the processor may turn off the motion detection function.
  • the processor may check whether recording is terminated. For example, when the recording end button 1005 is touched, the processor may recognize that the recording is finished. Alternatively, the processor may determine that the recording is ended when the last ultra low speed recording of the set number of ultra low speed recordings (eg, 20 times) is completed.
  • the processor may proceed to operation 905 and repeat the above operation.
  • the processor may store the recorded image and end the recording control according to an embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a focus setting method when recording an electronic device according to an embodiment of the present invention
  • FIGS. 12A and 12B illustrate a focus setting method when recording an electronic device according to an embodiment of the present invention. It is an illustration.
  • a processor eg, the processor 120 of FIG. 1 of an electronic device (eg, the electronic device 101) according to an embodiment of the present disclosure may perform ultra-low speed recording in operation 1101. (Or ultra-fast shooting) can be performed.
  • the processor may designate a motion detection region in operation 1103.
  • the processor may designate at least a portion of the screen as a motion detection region automatically or manually (user input).
  • the processor may set a focus of an image sensor (eg, the camera module 180 of FIG. 1) based on the motion detection region. For example, the processor may set the focus 1203 at the center of the motion detection region 1201, as shown in the diagram 1210 of FIG. 12A.
  • an image sensor eg, the camera module 180 of FIG. 1
  • the processor may set the focus 1203 at the center of the motion detection region 1201, as shown in the diagram 1210 of FIG. 12A.
  • the processor may determine whether the position of the motion detection region is changed. For example, as shown in the diagrams 1210 and 1220 of FIG. 12A, the processor detects a motion detection area 1201 based on a touch point when one side (eg, upper right) is touched 1205 on the recording standby screen. ) Position can be changed. According to some embodiments, as illustrated in the drawings 1230 and 1240 of FIG. 12B, the processor may be configured based on a touch point when one side (eg, the upper right) of the screen is touched 1207 while recording an image. The position of the motion detection region 1201 may be changed.
  • the processor may proceed to operation 1111, which will be described later.
  • the processor may move (or reset) the focus of the image sensor in response to the location change of the motion detection region in operation 1109. For example, as shown in the drawing of reference numeral 1220 of FIG. 12A, the processor moves to the center of the moved motion detection area 1201 when the motion detection area 1201 is moved to the upper right side in the recording standby screen. The focus 1203 can be moved.
  • the processor may move to the center of the moved motion detection area 1201 when the motion detection area 1201 is moved to the upper right side during recording, as shown in the drawing of reference numeral 1240 of FIG. 12B.
  • the focus 1203 can be moved.
  • the processor in operation 1111, may determine whether to terminate the recording function. When the termination of the recording function is not requested, the processor may return to operation 1107 and repeat the above operation. On the other hand, when the termination of the recording function is requested, the processor may end the recording.
  • FIG. 13 is a flowchart illustrating a method of shifting focus when recording an electronic device according to an embodiment of the present disclosure
  • FIG. 14 is an exemplary view illustrating a method of shifting focus when recording an electronic device according to an embodiment of the present disclosure. to be.
  • a processor eg, the processor 120 of FIG. 1 of an electronic device (eg, the electronic device 101) according to an embodiment of the present disclosure may perform ultra-low speed recording. (Or ultra-fast shooting) can be performed.
  • the processor may designate a motion detection region in operation 1303.
  • the processor may designate at least a portion of the screen as a motion detection region automatically or manually (user input).
  • the processor may record an image based on a first focus and a first photographing speed (eg, 30 fps) according to a user request.
  • a first photographing speed eg, 30 fps
  • the processor records an image at a first photographing speed in a state in which a first focus 1403 is set near a lower end of the motion detection region 1401. can do.
  • the first focus 1403 may be set by a user or may be set by an auto focus function.
  • the processor may determine whether motion is detected (or a moving subject is detected) in the motion detection area. If the movement is not detected as a result of the checking of operation 1307, the processor may proceed to operation 1315, which will be described later. On the other hand, when the motion is detected as a result of the check of operation 1307, the processor may move the focus of the image sensor (eg, the camera module 180 of FIG. 1) to the center of the motion detection region 1401 in operation 1309. have. For example, as illustrated in the drawing of reference numeral 1420 of FIG. 14, when the motion of the subject (eg, a bird) is detected in the motion detection region 1401, the processor moves the focus 1403 to the motion detection region ( 1401 can be moved to the center. Hereinafter, the moved focus will be described as a second focusing 1405 for convenience of description.
  • the processor may set a focus movement area and move the focus to the motion detection area when motion is detected in the focus movement area.
  • the focus movement area may be set to be larger by a predetermined size than the motion detection area.
  • the specified size may be determined in consideration of the focus shift time.
  • the processor may record an image based on the second focus and the second photographing speed (eg, 960 fps). For example, the processor may move the focus 1403 based on the second focus point 1405 and the second shooting speed (eg, 960 fps) after moving the focus 1403 as shown in the drawing of reference numeral 1420 of FIG. 14. You can record video. Video recording at the second shooting speed (eg, 960 fps) may be performed for a predetermined time (eg, 0.2 seconds).
  • a predetermined time eg, 0.2 seconds
  • the processor according to an embodiment of the present disclosure may reset focus in operation 1313.
  • the processor may set the third focus 1407 when image recording at the second shooting speed is completed.
  • the third focus point 1407 may be automatically set by an auto focus function.
  • the processor in operation 1315, may determine whether to terminate the recording function. When the termination of the recording function is not requested, the processor may return to operation 1307 and repeat the above-described operation. On the other hand, when the termination of the recording function is requested, the processor may terminate the recording function.
  • FIG. 15 is a flowchart illustrating a method for setting a motion detection region according to an embodiment of the present invention
  • FIG. 16 is an exemplary view for explaining a method for setting a motion detection region according to an embodiment of the present invention.
  • a processor eg, the processor 120 of FIG. 1 of an electronic device (eg, the electronic device 101) according to an embodiment of the present disclosure may perform ultra-low speed recording in operation 1501. (Or ultra-fast shooting) function can be detected.
  • the processor may designate a motion detection region in operation 1503.
  • the processor may designate at least a portion of the screen as a motion detection region automatically or manually (user input) as described above.
  • the processor may designate the motion detection region 1601 as shown in the diagram 1610 of FIG. 16.
  • the processor may determine whether motion is detected (or a moving subject is detected) in the motion detection region.
  • the processor may perform ultra low speed recording in operation 1507.
  • the processor displays an image at a high speed (for example, 960 fps). Ultra-low speed recording can be performed by shooting
  • the processor may determine whether a specified number of ultra-low recording times (eg, 20 times) is reached. For example, when the recording is completed, the processor may count up the number of recordings and check whether the counted recording number is 20.
  • a specified number of ultra-low recording times eg, 20 times
  • the processor may track the movement of the subject.
  • the processor may move the movement detection region along a movement path of the subject that is expected (or predicted) through tracking. For example, as shown in the diagram 1630 of FIG. 16, the processor may perform N seconds (for example, 15 seconds) based on the moving path 1603 of the subject (time for which ultra-low speed recording is enabled again. Expected travel path 1605 for. The processor may move the motion detection region 1601 based on the expected movement path 1605. After moving the motion detection region 1601, the processor returns to operation 1505 and repeats the above-described operation.
  • the processor may end the recording.
  • the processor may check whether an end of recording is requested in operation 1515. If the end of the recording is not requested as a result of checking 1515, the processor may return to operation 1505. On the other hand, if the end of recording is requested as a result of checking 1515, the processor may end the recording.
  • One embodiment of the present invention described above can perform ultra-low speed recording continuously for a specified number of times while tracking a subject.
  • a recording method of an electronic device may include: designating at least a portion of a screen as a motion detection region; Checking whether motion is detected in the motion detection area; And performing ultra-low speed recording by controlling an image sensor (for example, the camera module 180) in response to the movement detected in the motion detection area.
  • the method may further include: notifying a user that motion detection in the motion detection area is being performed; Or at least one of an operation of notifying a user that the ultra low speed recording is being performed.
  • the method may further include: detecting a request for editing the motion detection area; Entering an edit mode of the motion detection region in response to the edit request; And changing at least one of a size, a ratio, or a position of the motion detection area in response to a user interaction.
  • the method may include: detecting a movement of the electronic device through at least one sensor (eg, sensor module 176); And in response to detecting motion of the electronic device through the at least one sensor, stopping the motion detection in the motion detection area.
  • at least one sensor eg, sensor module 176
  • the method may further include setting a focus of the image sensor based on a center of the motion detection area in response to designation of the motion detection area.
  • the method may further include moving the focus of the image sensor to the center of the motion detection area in response to motion detection in the motion detection area and performing the ultra low speed recording. have.
  • the method may further include refocusing the image sensor in response to completion of the ultra low speed recording.
  • the method may further include: tracking a moving path of the ultra-low speed recording object; Predicting a movement route based on the tracking result; And moving the motion detection region along the expected movement path.
  • the method may further include performing ultra-low speed recording in response to a user input.
  • the method may include checking whether a touch is issued in an area other than the motion detection area; And moving the focus of the motion detection area and the image sensor based on the touch point in response to the touch occurrence.
  • Electronic devices may be various types of devices.
  • the electronic device may include, for example, at least one of a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smartphone
  • a computer device e.g., a laptop, a desktop, a tablet, or a smart bracelet
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a portable medical device
  • a home appliance e.g., a portable medical device
  • first,” “second,” “first,” or “second,” etc. may be used to distinguish those components from other corresponding components, and the components may be different aspects (eg, importance or order). Not limited to Some (eg, first) component may be referred to as “coupled” or “connected” to another (eg, second) component, with or without the term “functionally” or “communicatively”. When mentioned, that means that any component can be connected directly to the other component (eg by wire), wirelessly or via a third component.
  • module may include a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit.
  • the module may be an integral part or a minimum unit or part of the component, which performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • a machine-readable storage media eg, internal memory 136 or external memory 138
  • a machine eg, electronic device 101
  • the processor eg, the processor 120
  • the device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' means only that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic waves), which is the case when data is stored semi-permanently on the storage medium. It does not distinguish cases where it is temporarily stored.
  • a signal e.g., electromagnetic waves
  • a method may be provided included in a computer program product.
  • the computer program product may be traded between the seller and the buyer as a product.
  • a computer program product may be in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play Store TM ) or two user devices (e.g. It can be distributed (eg, downloaded or uploaded) directly, online between smartphones).
  • a device-readable storage medium such as a server of a manufacturer, a server of an application store, or a relay server, or may be temporarily created.
  • each component eg, module or program of the above-described components may include a singular or plural entity.
  • one or more of the aforementioned components or operations may be omitted, or one or more other components or operations may be added.
  • some components eg a module or a program
  • the integrated component may perform one or more functions of the component of each of the plurality of components the same as or similar to that performed by the corresponding component of the plurality of components before the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one of Other operations above may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명의 다양한 실시예들은 전자 장치 및 그의 녹화 방법에 관한 것으로, 상기 전자 장치는 터치스크린; 영상을 획득하는 이미지 센서; 상기 터치스크린 및 상기 이미지 센서와 작동적으로 연결되는 프로세서; 및 상기 프로세서와 작동적으로 연결되는 메모리를 포함하되, 상기 메모리는 실행되었을 때, 상기 프로세서가 상기 터치스크린의 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정하고, 상기 움직임 감지 영역에서 움직임이 감지되는지 확인하고, 및 상기 움직임 감지 영역에서의 움직임 감지에 대응하여 상기 이미지 센서를 제어하여 초저속 녹화를 수행하도록 하는 인스트럭션들을 저장할 수 있다. 그 밖의 다양한 실시예들이 가능하다.

Description

전자 장치 및 그의 녹화 방법
본 발명의 다양한 실시예들은 전자 장치 및 그의 녹화 방법에 관한 것이다.
전자 장치들(예: 이동 단말기, 스마트 폰, 착용형(wearable) 장치 등)은 다양한 기능을 제공할 수 있다. 예를 들어, 스마트 폰은 기본적인 음성 통신 기능에 추가적으로, 근거리 무선 통신(예: 블루투스(bluetooth), 와이파이(Wi-Fi), 또는 NFC (near field communication) 등) 기능, 이동 통신(3G(generation), 4G, 5G 등) 기능, 음악 또는 동영상 재생 기능, 사진 또는 동영상 촬영 기능, 또는 네비게이션 기능 등을 제공할 수 있다.
상기 전자 장치는 일반적으로 30 fps(frame per second)의 속도로 동영상을 촬영할 수 있다. 최근의 전자 장치들은 고성능의 이미지 센서를 포함하고 있다. 예를 들어, 최근의 전자 장치는 일반 촬영의 수 배 내지 수십 배의 속도로 촬영이 가능한 이미지 센서를 포함할 수 있다. 최근의 전자 장치는 고속 촬영을 지원할 수 있다.
상기 전자 장치는 사용자의 요청에 따라 고속 촬영을 수행하는 수동 방식을 제공하고 있다. 이로 인하여, 상기 전자 장치의 사용자는 빠르게(또는 순간적으로) 이동하는 대상(또는 피사체) 또는 원하는 순간(예: 별똥별이 떨어지는 순간)을 고속 촬영하기 어려울 수 있다. 예를 들어, 사용자가 초고속 촬영 버튼(또는 촬영 메뉴, 촬영 아이콘 등)을 누르기 전에 대상이 사라지거나, 촬영을 원하는 순간이 지나갈 수 있다.
상술한 문제점들을 해결하기 위한, 본 발명의 다양한 실시예들은 지정된 조건을 만족하는 경우 초고속 촬영(또는 저속 녹화(super slow recording))을 자동으로 수행할 수 있는 전자 장치 및 그의 녹화 방법을 제공할 수 있다.
본 발명의 다양한 실시예들은 화면의 지정된 영역에서 움직임 감지 시 초고속 촬영을 자동으로 수행할 수 있는 전자 장치 및 그의 녹화 방법을 제공할 수 있다.
본 발명의 다양한 실시예들은 움직임 감지를 위한 지정된 영역의 크기, 비율 및/또는 위치를 변경할 수 있는 전자 장치 및 그의 녹화 방법을 제공할 수 있다.
본 발명의 다양한 실시예들은 초고속 촬영 시 이미지 센서의 초점을 초고속 촬영 대상으로 변경할 수 있는 전자 장치 및 그의 녹화 방법을 제공할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는, 예를 들면, 터치스크린; 영상을 획득하는 이미지 센서; 상기 터치스크린 및 상기 이미지 센서와 작동적으로 연결되는 프로세서; 및 상기 프로세서와 작동적으로 연결되는 메모리를 포함하되, 상기 메모리는 실행되었을 때, 상기 프로세서가 상기 터치스크린의 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정하고, 상기 움직임 감지 영역에서 움직임이 감지되는지 확인하고, 및 상기 움직임 감지 영역에서의 움직임 감지에 대응하여 상기 이미지 센서를 제어하여 초저속 녹화를 수행하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 녹화 방법은, 예를 들면, 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정하는 동작; 상기 움직임 감지 영역에서 움직임이 감지되는지 확인하는 동작; 및 상기 움직임 감지 영역에서의 움직임이 감지되는 것에 대응하여 이미지 센서를 제어하여 초저속 녹화를 수행하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들은 자동으로 초저속 녹화를 수행할 수 있어 초저속 녹화에 대한 사용자의 편의성을 향상시킬 수 있다.
도 1은 본 발명의 다양한 실시예에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 본 발명의 한 실시예에 따른 전자 장치의 녹화 방법을 설명하는 순서도이다.
도 3a, 도 3b 및 도 4는 본 발명의 한 실시예에 따른 전자 장치의 녹화 방법을 설명하기 위한 예시도이다.
도 5는 본 발명의 한 실시예에 따른 오녹화를 방지하기 위한 방법을 설명하기 위한 순서도이다.
도 6은 본 발명의 한 실시예에 따른 오녹화를 방지하기 위한 방법을 설명하기 위한 예시도이다.
도 7은 본 발명의 한 실시예에 따른 움직임 감지 영역을 편집하는 방법을 설명하는 순서도이다.
도 8a 및 8b는 본 발명의 한 실시예에 따른 움직임 감지 영역을 편집하는 방법을 설명하기 위한 예시도이다.
도 9는 본 발명의 한 실시예에 따른 전자 장치의 녹화 방법을 설명하는 순서도이다.
도 10a 및 도 10b는 본 발명의 한 실시예에 따른 전자 장치의 녹화 방법을 설명하기 위한 예시도이다.
도 11은 본 발명의 한 실시예에 따른 전자 장치의 녹화 시 초점 설정 방법을 설명하는 순서도이다.
도 12a 및 12b는 본 발명의 한 실시예에 따른 전자 장치의 녹화 시 초점 설정 방법을 설명하기 위한 예시도이다.
도 13은 본 발명의 한 실시예에 따른 전자 장치의 녹화 시 초점 이동 방법을 설명하는 순서도이다.
도 14는 본 발명의 한 실시예에 따른 전자 장치의 녹화 시 초점 이동 방법을 설명하기 위한 예시도이다.
도 15는 본 발명의 한 실시예에 따른 움직임 감지 영역의 설정 방법을 설명하는 순서도이다.
도 16은 본 발명의 한 실시예에 따른 움직임 감지 영역의 설정 방법을 설명하기 위한 예시도이다.
이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시예들을 설명한다. 본 문서는 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있으나, 이는 본 발명의 다양한 실시예들을 특정한 형태로 한정하려는 것이 아니다. 예를 들어, 본 발명의 실시예들은 다양하게 변경될 수 있다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
상세한 설명에 앞서, 이하에서 "초저속 녹화"는 일반적인 촬영 속도(예: 30 fps(frame per second))보다 수십 배 빠른 속도(예: 960 fps)로 영상을 촬영하고, 빠른 속도로 촬영된 영상을 일반적인 속도로 재생하여 일반적인 속도보다 느리게 움직이는 슬로우 모션 효과를 제공하는 녹화 방법을 의미한다. 예를 들어, 960 fps로 0.2초 동안 촬영하고, 30 fps로 재생하는 경우 6.4 초 동안 재생될 수 있다. 이와 같이, 0.2초 동안 촬영된 영상은 6.4 초 동안 촬영된 영상으로 매우 느리게 재생될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 햅틱 모듈(179), 안테나 모듈(197) 또는 가입자 식별 모듈(196))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(113)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
본 발명의 한 실시예에 따른 프로세서(120)는, 초저속 녹화(또는 초고속 촬영)을 제어할 수 있다. 예를 들어, 프로세서(120)는 지정된 조건을 만족(예: 화면의 지정된 영역에서 움직임 감지 또는 특정 객체(예: 사람, 자동차 등)를 감지)하는 경우 초저속 촬영의 자동 수행을 제어할 수 있다. 상기 프로세서(120)에 대한 상세한 설명은 후술하기로 한다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. 예를 들어, 상기 표시 장치(160)는 터치스크린일 수 있다.
본 발명의 한 실시예에 따른 표시 장치(160)는 초고속 촬영을 위한 다양한 화면 및 인터페이스를 표시할 수 있다. 이에 대한 상세한 설명은 후술하기로 한다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
본 발명의 한 실시예에 따른 센서 모듈(176)은 초고속 촬영 시 전자 장치(101)이 움직임에 대응하는 전기 신호 또는 데이터 값을 생성하여 프로세서(120)로 전송할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다. 예를 들어, 상기 카메라 모듈(180)은 전자 장치(101)의 일측(예: 전면, 후면 또는 측면)에 위치할 수 있다.
본 발명의 한 실시 예에 따른 카메라 모듈(180)은 제1촬영 속도(예: 30 fps)보다 수 배 내지 수십 배 빠른 고속 또는 초고속 촬영을 지원할 수 있다. 예를 들어, 상기 카메라 모듈(180)은 제2촬영 속도(예: 960 fps)의 초고속 촬영을 지원할 수 있다. 본 발명의 한 실시예에 따른 카메라 모듈(180)은 초고속 촬영 시 촬영 대상으로 초점을 자동으로 이동할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 전자 장치에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치(예: 전자 장치(101))는 터치스크린(예: 표시 장치(160)); 영상을 획득하는 이미지 센서(예: 카메라 모듈(180)); 상기 터치스크린 및 상기 이미지 센서와 작동적으로 연결되는 프로세서(예: 프로세서(120)); 및 상기 프로세서와 작동적으로 연결되는 메모리(예: 메모리(130))를 포함하되, 상기 메모리는 실행되었을 때, 상기 프로세서가 상기 터치스크린의 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정하고, 상기 움직임 감지 영역에서 움직임이 감지되는지 확인하고, 및 상기 움직임 감지 영역에서의 움직임 감지에 대응하여 상기 이미지 센서를 제어하여 초저속 녹화를 수행하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시예들에 따르면, 상기 메모리는 상기 움직임 감지 영역에서의 움직임 감지를 수행 중임을 사용자에게 통지하도록 하는 인스트럭션, 또는 상기 초저속 녹화가 수행 중임을 사용자에게 통지하도록 하는 인스트럭션 중 적어도 하나를 더 저장할 수 있다.
다양한 실시예들에 따르면, 상기 메모리는 상기 움직임 감지 영역의 편집 요청에 대응하여 상기 움직임 감지 영역의 크기, 비율 또는 위치 중 적어도 하나를 변경하도록 하는 인스트럭션들을 더 저장할 수 있다.
다양한 실시예들에 따르면, 상기 전자 장치는 상기 전자 장치의 움직임을 감지하는 적어도 하나의 센서를 더 포함하고, 상기 메모리는 상기 적어도 하나의 센서를 통한 전자 장치의 움직임 감지에 대응하여, 상기 움직임 감지 영역에서의 움직임 감지를 중지하도록 하는 인스트럭션들을 더 저장할 수 있다.
다양한 실시예들에 따르면, 상기 메모리는 상기 움직임 감지 영역의 지정에 대응하여 상기 움직임 감지 영역의 중심을 기반으로 상기 이미지 센서의 초점을 설정하도록 하는 인스트럭션들을 더 저장할 수 있다.
다양한 실시예들에 따르면, 상기 메모리는 상기 움직임 감지 영역에서의 움직임 감지에 대응하여 상기 움직임 감지 영역의 중심으로 상기 이미지 센서의 초점을 이동하도록 하는 인스트럭션들을 더 저장할 수 있다.
다양한 실시예들에 따르면, 상기 메모리는 상기 이미지 센서의 초점 이동을 위한 영역을 상기 움직임 감지 영역보다 크게 설정하도록 하는 인스트럭션을 더 저장할 수 있다.
다양한 실시예들에 따르면, 상기 메모리는 상기 초저속 녹화 대상의 이동 경로를 추적하고, 상기 추적 결과에 기반하여 이동 경로를 예상하며, 상기 예상된 이동 경로로 상기 움직임 감지 영역을 이동하도록 하는 인스트럭션들을 더 저장할 수 있다.
다양한 실시예들에 따르면, 상기 메모리는 화면의 일측에 표시된 초저속 녹화 메뉴에 대한 사용자 입력에 대응하여 초저속 녹화를 수행하도록 하는 인스트럭션을 더 저장할 수 있다.
다양한 실시예들에 따르면, 상기 메모리는 상기 움직임 감지 영역에서 움직임을 감지하는 도중 화면의 일측에서 터치가 감지되는 경우 상기 터치 발생 지점을 기반으로 상기 움직임 감지 영역 및 상기 이미지 센서의 초점을 이동하도록 하는 인스트럭션을 더 저장할 수 있다.
도 2는 본 발명의 한 실시예에 따른 전자 장치의 녹화 방법을 설명하는 순서도이고, 도 3a, 도 3b 및 도 4는 본 발명의 한 실시예에 따른 전자 장치의 녹화 방법을 설명하기 위한 예시도이다.
도 2 내지 도 4를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는, 201 동작에서, 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정할 수 있다.
상기 움직임 감지 영역은 자동 또는 수동으로 지정될 수 있다. 예를 들어, 상기 프로세서는, 도 3a의 식별 부호 310의 도면에 도시된 바와 같이, 초저속 녹화 기능(311)을 활성화하는 경우 초저속 녹화 대기 화면(예: 프리뷰 화면)의 중앙을 중심으로 기 지정된(또는 설정된) 크기(예: 화면 크기의 1/3)의 영역을 움직임 감지 영역(301)으로 지정할 수 있다. 상기 대기 화면은 사용자가 움직임 감지 영역을 사용자가 인지할 수 있도록 시각적 인디케이터(예: 사각형 박스) 및 다양한 메뉴(예: 설정 메뉴, 플래쉬(flash) 온/오프 메뉴, 녹화 메뉴, 갤러리 메뉴, 카메라 메뉴 등)을 포함할 수 있다.
어떤 실시예에 따르면, 프로세서는 사용자의 제스처(예: 폐 루프를 그리는 사용자 제스처)에 기초하여 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정할 수 있다. 예를 들어, 사용자의 제스처에 대응하는 원 또는 다각형의 폐 루프를 포함할 수 있는 최소 크기의 사각형 영역을 움직임 감지 영역으로 지정할 수 있다. 어떤 실시예에 따르면, 사용자는 다양한 인터렉션(예: 터치, 드래그 등)을 이용하여 움직임 감지 영역의 크기, 위치, 비율 등을 편집할 수 있다. 이에 대한 상세한 설명은 도 7, 8a 및 도 8b를 참조하여 후술하기로 한다.
본 발명의 한 실시예에 따른 프로세서는, 203 동작에서, 움직임 감지를 대기 중(또는 초저속 녹화 대기 중)임을 사용자에게 통지할 수 있다. 예를 들어, 상기 프로세서는, 도 3a의 식별 부호 310의 도면에 도시된 바와 같이, 움직임 감지 영역이 지정(설정)된 후 녹화 명령이 입력(예: 녹화 메뉴(302)가 터치)되는 경우 움직임을 감지 중임을 통지할 수 있다. 이때, 상기 프로세서는 제1촬영 속도(예: 30 fps)로 영상을 녹화할 수 있다. 상기 통지는 시각적으로 제공될 수 있다. 예를 들어, 상기 프로세서는, 도 3a의 식별 부호 320의 도면에 도시된 바와 같이, 움직임 감지 영역(301)을 나타내는 사각형 박스의 선을 굵게 표시할 수 있다. 또는, 상기 프로세서는 선의 색상 또는 선 종류를 다르게 할 수 있다. 다른 실시예에 따르면, 상기 프로세서는 녹화 버튼의 색상, 투명도 등을 이용하여 움직임 감지 대기 중임을 시각적으로 통지할 수 있다. 또 다른 실시예에 따르면, 상기 프로세서는 별도의 시각적 인디케이터(예: 아이콘, 또는 텍스트)를 제공할 수도 있다. 예를 들어, 상기 프로세서는, 도 4의 식별 부호 410의 도면에 도시된 바와 같이, 녹화 메뉴(302)를 대신하여 원형 띠 형태의 인디케이터(402)를 표시할 수 있다.
어떤 실시예에 따르면, 상기 프로세서는 움직임 감지 대기 중임을 촉각 또는 청각 중 적어도 하나로 통지할 수 있다. 어떤 실시예에 따르면, 상술한 다양한 통지 방법들 중 적어도 2개를 조합하여 움직임 감지 대기 중임을 통지할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 205 동작에서, 움직임 감지 영역에서 움직임이 감지되는지 확인할 수 있다. 예를 들어, 상기 프로세서는 움직임 감지 영역의 이미지가 변화되는지 확인할 수 있다. 또는, 상기 프로세서는 움직임 감지 영역에서 움직이는 피사체가 감지되는지 확인할 수 있다.
상기 205 동작의 확인 결과, 움직임이 감지되지 않는 경우 상기 프로세서는 후술하는 211 동작으로 진행할 수 있다. 반면에, 상기 205 동작의 확인 결과, 움직임이 감지되는 경우 상기 프로세서는, 207 동작에서, 초저속 녹화를 수행할 수 있다. 예를 들어, 상기 프로세서는 이미지 센서(예: 카메라 모듈(180))를 이용하여 일반 촬영 속도(예: 30 fps)의 수 배 내지 수십 배의 촬영 속도(예: 960 fps)로 영상을 촬영할 수 있다. 상기 초저속 녹화는 이미지 센서의 성능을 고려하여 지정된 시간(예: 0.2 초)동안 수행될 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 209 동작에서, 초저속 녹화 중임을 사용자에게 통지할 수 있다. 상기 프로세서는 초저속 녹화 중임을 시각적으로 통지할 수 있다. 예를 들어, 상기 프로세서는, 도 3b의 식별 부호 330 및 340의 도면에 도시된 바와 같이, 움직임 감지 영역(301)을 나타내는 사각형 박스의 내부에 작은 크기의 사각형 박스를 순차적으로 더 표시하여 애니메이션 효과를 제공할 수 있다. 또는, 상기 프로세서는, 도 4의 식별 부호 420의 도면에 도시된 바와 같이, 원형 띠 형태의 인디케이터(402)를 시간 경과에 따라 지정된 색상으로 채울 수 있다. 하지만, 본 발명의 실시예들은 이에 한정되지 않고 다양한 방식(예: 별도의 아이콘 표시, 녹화 버튼의 깜빡임 등)을 이용하여 초저속 녹화 중임을 시각적으로 통지할 수 있다. 어떤 실시예에 따르면, 상기 프로세서는 초저속 녹화 중임을 촉각 또는 청각 중 적어도 하나로 통지할 수 있다. 어떤 실시예에 따르면, 상술한 방식들 중 적어도 2개를 조합하여 초저속 녹화 중임을 통지할 수 있다.
상기 프로세서는 초저속 녹화가 완료되면, 이를 시각적으로 통지할 수 있다. 이때, 상기 프로세서는 초저속 녹화를 다수 번 수행하는 멀티 모드인 경우 녹화 횟수에 대한 정보를 제공할 수 있다. 예를 들어, 초저속 녹화 횟수는, 도 3b의 식별 부호 350의 도면에 도시된 바와 같이, 다수의 인디케이터(예: 총 횟수에 대응)를 표시하고, 초저속 녹화 완료 시마다 인디케이터의 색상을 하나씩 변경할 수 있다. 도 3b의 식별부호 350의도면은 초저속 녹화가 1회 완료되었음을 의미할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 211 동작에서, 녹화가 종료되는지 확인할 수 있다. 예를 들어, 상기 프로세서는 녹화 종료 메뉴가 터치되는 경우 녹화가 종료된 것으로 판단(또는 인식)할 수 있다. 또는, 상기 프로세서는 설정된 초저속 녹화 횟수(예: 20회)의 마지막 초저속 녹화가 완료된 경우 녹화가 종료된 것으로 판단할 수 있다. 어떤 실시예에 따르면, 상기 프로세서는 초저속 녹화를 한번만 수행하는 싱글 모드인 경우 상기 211 동작을 생략하고, 초저속 녹화의 완료 시 녹화가 종료된 것으로 판단할 수 있다.
상기 211 동작의 확인 결과, 녹화 종료가 요청되지 않은 경우 프로세서는 상기 205 동작으로 진행하여 상술한 동작을 반복할 수 있다. 반면에, 상기 211 동작의 확인 결과, 녹화 종료가 요청되는 경우 프로세서는 녹화된 영상을 저장하고 본 발명의 한 실시예에 따른 녹화 제어를 종료할 수 있다. 상기 녹화된 영상은 초저속 녹화를 시작하기 전 약 1초 정도의 일반 속도(30 fps)의 녹화 영상 및 초저속 녹화 완료 후 약 1초 정도의 일반 녹화 영상을 함께 포함할 수 있다. 한편, 어떤 실시예에 따르면, 상기 도 2의 203 동작 및 209 동작은 생략될 수 있다.
도 5는 본 발명의 한 실시예에 따른 오녹화를 방지하기 위한 방법을 설명하기 위한 순서도이고, 도 6은 본 발명의 한 실시예에 따른 오녹화를 방지하기 위한 방법을 설명하기 위한 예시도이다.
도 5 및 도 6을 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는, 501 동작에서, 전자 장치의 움직임이 감지되는지 확인할 수 있다. 예를 들어, 상기 프로세서는 센서 모듈(예: 도 1의 센서 모듈(176))로부터 전자 장치의 움직임에 대응하는 센서 신호 또는 데이터 값이 수신되는지 확인할 수 있다. 상기 501 동작은 상기 도 2의 203 동작 이후에 수행될 수 있다. 어떤 실시예에 따르면, 상기 501 동작은 상기 201 동작 이후 수행될 수 있다.
상기 501 동작의 확인 결과 전자 장치의 움직임이 감지되지 않는 경우 프로세서는 도 2의 205 동작으로 진행할 수 있다. 반면에, 상기 501 동작의 확인 결과 전자 장치의 움직임이 감지되는 경우 프로세서는, 503 동작에서, 움직임 감지에 따른 자동 초저속 녹화를 중지할 수 있다. 예를 들어, 상기 프로세서는 움직임 감지 영역에서 움직임 감지를 중지할 수 있다. 이때, 상기 프로세서는 전자 장치의 움직임을 멈추라는 경고 메시지를 제공할 수 있다. 예를 들어, 상기 프로세서는, 도 6에 도시된 바와 같이, "단말기를 움직이지 마세요"와 같은 경고 메시지(601)를 출력하도록 디스플레이(예: 도 1의 표시 장치(160))를 제어할 수 있다. 이때, 상기 프로세서는 단말기의 움직임으로 인하여 자동 초저속 녹화가 중지되었음을 사용자기 인지할 수 있도록 화면을 흐리게(예: 디밍(dimming))할 수 있다. 어떤 실시예에 따르면, 상기 프로세서는 움직임 감지 영역(602)을 나타내는 사각형 박스를 제거하거나, 선 색상, 선 종류 등을 다르게 표시할 수 있다.
상술한 본 발명의 한 실시예는 전자 장치의 움직임에 따른 오 녹화를 방지할 수 있다. 예를 들어, 본 발명의 한 실시예는 초저속 녹화의 대기 중 전자 장치가 움직이는 경우 상기 프로세서가 움직임 감지 영역에서 움직임이 감지된 것으로 인식하여 초저속 녹화를 자동으로 수행하는 문제(오동작)를 해결할 수 있다.
도 7은 본 발명의 한 실시예에 따른 움직임 감지 영역을 편집하는 방법을 설명하는 순서도이고, 도 8a 및 8b는 본 발명의 한 실시예에 따른 움직임 감지 영역을 편집하는 방법을 설명하기 위한 예시도이다.
도 7 내지 도 8b를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는, 701 동작에서, 움직임 감지 영역의 편집 요청을 감지할 수 있다. 예를 들어, 상기 프로세서는, 도 8a의 식별 부호 810 도면에 도시된 바와 같이, 지정된 사용자 제스처(예: 움직임 감지 영역(801) 내부의 롱터치(802) 또는 움직임 감지 영역(801)의 라인을 터치(또는 탭)(803)) 감지 시 움직임 감지 영역(801)의 편집이 요청된 것으로 인식할 수 있다. 어떤 실시예에 따르면, 상기 프로세서는 설정 메뉴에 포함된 편집 메뉴의 선택 시 움직임 감지 영역(801)의 편집이 요청된 것으로 인식할 수 있다. 상기 편집 요청에 대응하여 편집 상태(또는 편집 모드)로 진입한 경우 상기 프로세서는, 도 8a의 식별 부호 820 도면에 도시된 바와 같이, 시각적 인디케이터(804)를 이용하여 움직임 감지 영역(801)의 편집이 가능한 상태임을 사용자에게 통지할 수 있다. 이는 일 예일 뿐, 본 발명의 실시예들은 다양한 방식으로 움직임 감지 영역(801)의 편집 상태임을 통지할 수 있다. 또한, 상기 프로세서는 상기 편집 모드로 진입하는 경우 편집 방법에 대한 도움말(또는 가이드 정보)(805)을 화면 일측에 제공할 수 있다.
상기 움직임 감지 영역(801)의 편집은 녹화 대기 화면(예: 녹화 버튼의 입력 전 화면(프리뷰 화면)) 또는 움직임 감지 대기 화면(예: 녹화 버튼 입력 후 움직임 감지 영역에서 움직임이 감지되는지 확인하는 화면)에서 요청될 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 703 동작에서, 사용자 인터렉션에 대응하여 움직임 감지 영역의 크기, 비율 및 위치 중 적어도 하나를 조절(변경)할 수 있다. 예를 들어, 상기 프로세서는, 도 8a의 식별 부호 820 및 830 도면에 도시된 바와 같이, 움직임 감지 영역(801)의 좌측 상단 모서리를 터치한 후 우측하단 방향으로 드래그하는 사용자 제스처(806)의 감지 시 움직임 감지 영역(801)의 크기를 축소할 수 있다.
어떤 실시예에 따르면, 상기 프로세서는, 도 8b의 825 도면에 도시된 바와 같이, 움직임 감지 영역(801)의 내부를 터치한 후 임의의 방향(예: 좌측하단 방향)으로 드래그하는 사용자 제스처(807)의 감지 시 움직임 감지 영역(801)의 위치를 이동할 수 있다.
어떤 실시예에 따르면, 상기 움직임 감지 영역(801)은, 도 8b의 식별 부호 831의 도면에 도시된 바와 같이, 가로 및 세로의 비율이 변경될 수 있다. 다른 실시예에 따르면, 상기 움직임 감지 영역(801)은, 도 8b의 식별 부호 833의 도면에 도시된 바와 같이, 화면의 전체가 될 수 있다. 어떤 실시예에 따르면, 화면 전체가 움직임 감지 영역으로 지정된 경우 프로세서는, 도 8b의 식별 부호 835의 도면에 도시된 바와 같이 움직임 감지 영역(801)에 대한 시각적 표현(visual representation)(예: 사각형 박스)을 제공(표시)하지 않을 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 705 동작에서, 편집이 완료되는지 확인할 수 있다. 예를 들어, 상기 프로세서는 사용자 입력이 지정된 시간(예: 3초) 이상 감지되지 않거나, 별도의 편집 종료를 요청하는 입력이 수신되는 경우 편집이 완료된 것으로 판단할 수 있다.
상기 705 동작의 확인 결과, 편집이 완료되지 않은 경우 상기 프로세서는 703 동작으로 복귀하여 상술한 동작을 반복할 수 있다. 반면에, 상기 705 동작의 확인 결과, 편집이 완료된 경우 상기 프로세서는 움직임 감지 영역의 편집을 종료할 수 있다. 예를 들어, 상기 편집이 완료된 경우 상기 프로세서는, 도 8a의 식별 부호 840의 도면에 도시된 바와 같이, 편집 상태임을 나타내는 시각적 인디케이터(804)를 제거할 수 있다.
도 9는 본 발명의 한 실시예에 따른 전자 장치의 녹화 방법을 설명하는 순서도이고, 도 10a 및 도 10b는 본 발명의 한 실시예에 따른 전자 장치의 녹화 방법을 설명하기 위한 예시도이다.
도 9 내지 도 10b를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는, 901 동작에서, 초저속 녹화(또는 초고속 촬영) 기능의 실행을 감지할 수 있다. 상기 초저속 녹화 기능의 실행에 대응하여, 프로세서는 녹화 대기 화면을 표시하도록 디스플레이(예: 도 1의 표시 장치(160))를 제어할 수 있다. 상기 녹화 대기 화면은, 도 10a의 식별 부호 1010의 도면에 도시된 바와 같이, 움직임 감지 기능 버튼(또는 메뉴)(1001), 초저속 녹화 버튼(1002), 녹화 버튼(1003), 일시 정지 버튼(1004) 및 녹화 시간 정보(1005) 등을 일측에 포함할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 903 동작에서, 녹화 요청을 감지할 수 있다. 예를 들어, 프로세서는 녹화 버튼(1003)의 터치를 감지할 수 있다.
상기 녹화 요청의 감지에 대응하여 상기 프로세서는, 905 동작에서, 제1촬영 속도(예: 30 fps)로 영상을 촬영할 수 있다. 상기 프로세서는, 상기 도 10a의 식별 부호 1020의 도면에 도시된 바와 같이, 제1촬영 속도의 영상을 녹화할 수 있다. 이때, 녹화 버튼(1003)은 녹화 종료 버튼(1006)으로 변경될 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 907 동작에서, 초저속 녹화가 요청되는지 확인할 수 있다. 예를 들어, 상기 프로세서는 초저속 녹화 버튼(1002)이 터치되는지 확인할 수 있다.
상기 907 동작의 확인 결과 초저속 녹화가 요청되지 않는 경우 상기 프로세서는 후술하는 911 동작으로 진행할 수 있다. 반면에, 상기 907 동작의 확인 결과 초저속 녹화가 요청되는 경우 상기 프로세서는, 909 동작에서, 제2촬영 속도(예: 960 fps)로 영상을 촬영하여 초저속 녹화를 수행할 수 있다. 예를 들어, 상기 프로세서는, 도 10a의 식별 부호 1020 및 1030의 도면에 도시된 바와 같이, 일반 녹화 도중 초저속 녹화 버튼(1002)이 터치되는 경우 초저속 녹화를 수행할 수 있다. 이때, 상기 프로세서는 초저속 녹화 중임을 사용자에게 시각적으로 통지할 수 있다. 예를 들어, 상기 프로세서는 초저속 녹화 버튼(1002), 일시 정지 버튼(1004) 및 녹화 종료 버튼(1006)의 색상, 모양, 또는 투명도 중 적어도 하나를 변경할 수 있다. 또는 상기 프로세서는 녹화 중임을 알리는 텍스트 정보(1007)를 화면 일측에 표시할 수 있다. 이와 같이, 본 발명의 실시예들은 초저속 녹화 버튼(1002)을 이용하여 수동으로 초저속 녹화를 수행할 수 있다.
초저속 녹화의 완료 후, 본 발명의 한 실시예에 따른 프로세서는, 911 동작에서, 움직임 감지 기능의 활성화(온)가 요청되는지 확인할 수 있다. 예를 들어, 상기 프로세서는, 도 10b의 식별 부호 1040의 도면에 도시된 바와 같이, 움직임 감지 기능 버튼(1001)이 터치되는지 확인할 수 있다.
상기 911 동작의 확인 결과 움직임 감지 기능의 활성화가 요청되지 않은 경우 프로세서는 후술하는 915 동작으로 진행할 수 있다. 반면에, 상기 911 동작의 확인 결과 움직임 감지 기능의 활성화가 요청되는 경우 프로세서는, 913 동작에서, 움직임 감지에 대응하여 자동으로 초저속 녹화를 수행할 수 있다. 예를 들어, 상기 프로세서는, 도 10b의 식별 부호 1040 및 1050의 도면에 도시된 바와 같이, 지정된 움직임 감지 영역에서 움직임이 감지되는 경우 초저속 녹화를 자동으로 수행할 수 있다. 상기 프로세서는 초저속 녹화 중임을 시각적으로 통지할 수 있다. 상기 프로세서는 자동으로 초저속 녹화 중임을 상기 도 10a의 식별 부호 1030의 도면의 사용자에 의한 초저속 녹화 수행에 대한 시각적 통지와 다른 방식으로 사용자에게 통지할 수 있다. 예를 들어, 상기 프로세서는, 상기 도 10b의 식별 부호 1040의 도면과 같이, 초저속 녹화 버튼(1002) 주변을 따라 다수의 점을 순차적으로 표시하는 애니메이션을 제공할 수 있다.
한편, 상기 프로세서는, 도 10b의 식별 부호 1050의 도면에 도시된 바와 같이, 움직임 감지 기능이 온된 상태에서 움직임 감지 기능 버튼(1001)이 터치되는 경우 움직임 감지 기능을 오프할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 915 동작에서, 녹화가 종료되는지 확인할 수 있다. 예를 들어, 상기 프로세서는 녹화 종료 버튼(1005)이 터치되는 경우 녹화가 종료된 것으로 인식할 수 있다. 또는, 상기 프로세서는 설정된 초저속 녹화 횟수(예: 20회)의 마지막 초저속 녹화가 완료된 경우 녹화가 종료된 것으로 판단할 수 있다.
상기 915 동작의 확인 결과, 녹화 종료가 감지되지 않는 경우 프로세서는 상기 905 동작으로 진행하여 상술한 동작을 반복할 수 있다. 반면에, 상기 915 동작의 확인 결과, 녹화 종료가 감지되는 경우 프로세서는 녹화된 영상을 저장하고 본 발명의 한 실시예에 따른 녹화 제어를 종료할 수 있다.
도 11은 본 발명의 한 실시예에 따른 전자 장치의 녹화 시 초점 설정 방법을 설명하는 순서도이고, 도 12a 및 12b는 본 발명의 한 실시예에 따른 전자 장치의 녹화 시 초점 설정 방법을 설명하기 위한 예시도이다.
도 11 내지 도 12b를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는, 1101 동작에서, 초저속 녹화(또는 초고속 촬영) 기능을 실행할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1103 동작에서, 움직임 감지 영역을 지정할 수 있다. 예를 들어, 상기 프로세서는 자동 또는 수동(사용자 입력)으로 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정할 수 있다.
본 발명의 한 실시 예에 따른 프로세서는, 1105 동작에서, 움직임 감지 영역에 기초하여 이미지 센서(예: 도 1의 카메라 모듈(180))의 초점을 설정할 수 있다. 예를 들어, 상기 프로세서는, 도 12a의 식별 부호 1210의 도면에 도시된 바와 같이, 움직임 감지 영역(1201)의 중심에 초점(1203)을 설정할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1107 동작에서, 움직임 감지 영역의 위치가 변경되는지 확인할 수 있다. 예를 들어, 상기 프로세서는, 도 12a의 1210 및 1220의 도면에 도시된 바와 같이, 녹화 대기 화면에서 일측(예: 우측 상단)이 터치(1205)되는 경우 터치 지점에 기초하여 움직임 감지 영역(1201)의 위치를 변경할 수 있다. 어떤 실시예에 따르면, 상기 프로세서는, 도 12b의 1230 및 1240의 도면에 도시된 바와 같이, 영상을 녹화하는 도중 화면의 일측(예: 우측 상단)이 터치(1207)되는 경우 터치 지점에 기초하여 움직임 감지 영역(1201)의 위치를 변경할 수 있다.
상기 1107 동작의 확인 결과 움직임 감지 영역의 위치가 변경되지 않는 경우 프로세서는 후술하는 1111 동작으로 진행할 수 있다. 반면에, 상기 1107 동작의 확인 결과 움직임 감지 영역의 위치가 변경되는 경우 프로세서는, 1109 동작에서, 움직임 감지 영역의 위치 변경에 대응하여 이미지 센서의 초점을 이동(또는 재설정)할 수 있다. 예를 들어, 상기 프로세서는, 도 12a의 식별 부호 1220의 도면에 도시된 바와 같이, 녹화 대기 화면에서 움직임 감지 영역(1201)이 우측 상단으로 이동되는 경우 이동된 움직임 감지 영역(1201)의 중심으로 초점(1203)을 이동할 수 있다.
어떤 실시예에 따르면, 상기 프로세서는, 도 12b의 식별 부호 1240의 도면에 도시된 바와 같이, 녹화 도중 움직임 감지 영역(1201)이 우측 상단으로 이동되는 경우 이동된 움직임 감지 영역(1201)의 중심으로 초점(1203)을 이동할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1111 동작에서, 녹화 기능의 종료가 요청되는지 확인할 수 있다. 상기 녹화 기능의 종료가 요청되지 않는 경우 상기 프로세서는 상기 1107 동작으로 복귀하여 상술한 동작을 반복할 수 있다. 반면에, 상기 녹화 기능의 종료가 요청되는 경우 상기 프로세서는 녹화를 종료할 수 있다.
도 13은 본 발명의 한 실시예에 따른 전자 장치의 녹화 시 초점 이동 방법을 설명하는 순서도이고, 도 14는 본 발명의 한 실시예에 따른 전자 장치의 녹화 시 초점 이동 방법을 설명하기 위한 예시도이다.
도 13 및 도 14를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는, 1301 동작에서, 초저속 녹화(또는 초고속 촬영) 기능을 실행할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1303 동작에서, 움직임 감지 영역을 지정할 수 있다. 예를 들어, 상기 프로세서는 자동 또는 수동(사용자 입력)으로 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1305 동작에서, 사용자 요청에 따라 제1초점 및 제1촬영 속도(예: 30 fps)를 기반으로 영상을 녹화할 수 있다. 예를 들어, 상기 프로세서는, 도 14의 식별 부호 1410의 도면에 도시된 바와 같이, 움직임 감지 영역(1401)의 하단 부근에 제1초점(1403)이 설정된 상태에서 제1촬영 속도로 영상을 녹화할 수 있다. 상기 제1초점(1403)은 사용자에 의해 설정되거나, 오토 포커스 기능에 의해 설정될 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1307 동작에서, 움직임 감지 영역에서 움직임이 감지(또는 이동하는 피사체가 감지)되는지 확인할 수 있다. 상기 1307 동작의 확인 결과 움직임이 감지되지 않는 경우 상기 프로세서는 후술하는 1315 동작으로 진행할 수 있다. 반면에, 상기 1307 동작의 확인 결과 움직임이 감지되는 경우 상기 프로세서는, 1309 동작에서, 이미지 센서(예: 도 1의 카메라 모듈(180))의 초점을 움직임 감지 영역(1401)의 중심으로 이동할 수 있다. 예를 들어, 상기 프로세서는, 도 14의 식별 부호 1420의 도면에 도시된 바와 같이, 움직임 감지 영역(1401)에서 피사체(예: 새)의 움직임이 감지되는 경우 초점(1403)을 움직임 감지 영역(1401)의 중심으로 이동할 수 있다. 이하에서는 설명의 편의를 위하여 이동된 초점을 제2초점(1405)으로 설명하기로 한다.
어떤 실시예에 따르면, 상기 프로세서는 초점 이동 영역을 설정하고, 상기 초점 이동 영역에서 움직임이 감지되는 경우 초점을 움직임 감지 영역으로 이동할 수 있다. 상기 초점 이동 영역은 움직임 감지 영역보다 지정된 크기만큼 크게 설정될 수 있다. 상기 지정된 크기는 초점 이동 시간을 고려하여 결정될 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1311 동작에서, 제2초점 및 제2촬영 속도(예: 960 fps)를 기초로 영상을 녹화할 수 있다. 예를 들어, 상기 프로세서는, 도 14의 식별 부호 1420의 도면에 도시된 바와 같이, 초점(1403)을 이동한 후 제2초점(1405) 및 제2촬영 속도(예: 960 fps)를 기초로 영상을 녹화할 수 있다. 상기 제2촬영 속도(예: 960 fps)의 영상 녹화는 지정된 시간(예: 0.2 초) 동안 수행될 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1313 동작에서, 초점을 재설정할 수 있다. 예를 들어, 상기 프로세서는, 도 14의 식별 부호 1430의 도면에 도시된 바와 같이, 제2촬영 속도의 영상 녹화가 완료되면, 제3초점(1407)을 설정할 수 있다. 상기 제3초점(1407)은 오토 포커스 기능에 의해 자동으로 설정될 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1315 동작에서, 녹화 기능의 종료가 요청되는지 확인할 수 있다. 상기 녹화 기능의 종료가 요청되지 않는 경우 상기 프로세서는 상기 1307 동작으로 복귀하여 상술한 동작을 반복할 수 있다. 반면에, 상기 녹화 기능의 종료가 요청되는 경우 상기 프로세서는 녹화 기능을 종료할 수 있다.
도 15는 본 발명의 한 실시예에 따른 움직임 감지 영역의 설정 방법을 설명하는 순서도이고, 도 16은 본 발명의 한 실시예에 따른 움직임 감지 영역의 설정 방법을 설명하기 위한 예시도이다.
도 15 및 도 16을 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101))의 프로세서(예: 도 1의 프로세서(120))는, 1501 동작에서, 초저속 녹화(또는 초고속 촬영) 기능의 실행을 감지할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1503 동작에서, 움직임 감지 영역을 지정할 수 있다. 예를 들어, 상기 프로세서는 상술한 바와 같이 자동 또는 수동(사용자 입력)으로 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정할 수 있다. 예를 들어, 상기 프로세서는, 도 16의 식별 부호 1610의 도면에 도시된 바와 같이, 움직임 감지 영역(1601)을 지정할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1505 동작에서, 움직임 감지 영역에서 움직임이 감지(또는 이동하는 피사체가 감지)되는지 확인할 수 있다. 상기 1505 동작의 확인 결과 움직임이 감지되는 경우 상기 프로세서는, 1507 동작에서, 초저속 녹화를 수행할 수 있다. 예를 들어, 상기 프로세서는, 도 16의 식별 부호 1620의 도면에 도시된 바와 같이, 움직임 감지 영역(1601)에서 피사체(예: 새)의 움직임이 감지되는 경우 초고속(예: 960 fps)으로 영상을 촬영하여 초저속 녹화를 수행할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1509 동작에서, 지정된 초저속 녹화 횟수(예: 20회)에 도달했는지 확인할 수 있다. 예를 들어, 상기 프로세서는 녹화가 완료되면 녹화 횟수를 카운트 업하고, 카운트된 녹화 횟수가 20회인지 확인할 수 있다.
상기 1509 동작의 확인 결과 지정된 녹화 횟수에 도달하지 않은 경우 상기 프로세서는, 1511 동작에서, 피사체의 움직임을 추적할 수 있다. 상기 프로세서는, 1513 동작에서, 추적을 통해 예상(또는 예측)되는 피사체의 이동 경로로 움직임 감지 영역을 이동할 수 있다. 예를 들어, 상기 프로세서는, 도 16의 식별 부호 1630의 도면에 도시된 바와 같이, 피사체의 이동 경로(1603)을 기초로, N초(예: 15초)(초저속 녹화가 다시 가능해지는 시간) 동안의 예상 이동 경로(1605)를 계산할 수 있다. 상기 프로세서는 예상 이동 경로(1605)를 기초로 움직임 감지 영역(1601)을 이동할 수 있다. 상기 움직임 감지 영역(1601)을 이동한 후 상기 프로세서는 1505 동작으로 복귀하여 상술한 동작을 반복할 수 있다.
반면에, 상기 1509 동작의 확인 결과 지정된 녹화 횟수에 도달한 경우 상기 프로세서는 녹화를 종료할 수 있다.
한편, 상기 1505 동작의 확인 결과 움직임이 감지되지 않는 경우 상기 프로세서는, 1515 동작에서, 녹화 종료가 요청되는지 확인할 수 있다. 상기 1515의 확인 결과 녹화 종료가 요청되지 않는 경우 프로세서는 1505 동작으로 복귀할 수 있다. 반면에, 상기 1515의 확인 결과 녹화 종료가 요청되는 경우 프로세서는 녹화를 종료할 수 있다. 상술한 본 발명의 한 실시예는 피사체를 추적하며 지정된 횟수 동안 연속적으로 초저속 녹화를 수행할 수 있다.
본 발명의 다양한 실시예들에 따르면, 전자 장치(예: 전자 장치(101))의 녹화 방법은 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정하는 동작; 상기 움직임 감지 영역에서 움직임이 감지되는지 확인하는 동작; 및 상기 움직임 감지 영역에서의 움직임이 감지되는 것에 대응하여 이미지 센서(예: 카메라 모듈(180))를 제어하여 초저속 녹화를 수행하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 방법은 상기 움직임 감지 영역에서의 움직임 감지를 수행 중임을 사용자에게 통지하는 동작; 또는 상기 초저속 녹화가 수행 중임을 사용자에게 통지하는 동작 중 적어도 하나를 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 방법은 상기 움직임 감지 영역의 편집 요청을 감지하는 동작; 상기 편집 요청에 대응하여 상기 움직임 감지 영역의 편집 모드로 진입하는 동작; 및 사용자의 인터렉션에 대응하여 상기 움직임 감지 영역의 크기, 비율 또는 위치 중 적어도 하나를 변경하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 방법은 적어도 하나의 센서(예: 센서 모듈(176))를 통해 상기 전자 장치의 움직임을 감지하는 동작; 및 상기 적어도 하나의 센서를 통한 전자 장치의 움직임 감지에 대응하여, 상기 움직임 감지 영역에서의 움직임 감지를 중지하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 방법은 상기 움직임 감지 영역의 지정에 대응하여 상기 움직임 감지 영역의 중심을 기반으로 상기 이미지 센서의 초점을 설정하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 방법은 상기 움직임 감지 영역에서의 움직임 감지에 대응하여 상기 움직임 감지 영역의 중심으로 상기 이미지 센서의 초점을 이동하고, 상기 초저속 녹화를 수행하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 방법은 상기 초저속 녹화의 완료에 대응하여 상기 이미지 센서의 초점을 재설정하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 방법은 상기 초저속 녹화 대상의 이동 경로를 추적하는 동작; 상기 추적 결과에 기반하여 이동 경로를 예상하는 동작; 및 상기 예상된 이동 경로로 상기 움직임 감지 영역을 이동하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 방법은 사용자 입력에 대응하여 초저속 녹화를 수행하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따르면, 상기 방법은 상기 움직임 감지 영역이 아닌 영역에서 터치가 발행하는지 확인하는 동작; 및 상기 터치 발생에 대응하여 터치 지점을 기반으로 상기 움직임 감지 영역 및 상기 이미지 센서의 초점을 이동하는 동작을 더 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나," 및 "A, B 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 용어들은 해당 구성요소들을 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그 것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로) 연결되거나, 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따름녀, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101))에 의해 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령어를 호출하고, 그 것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따른면, 상기 기술한 구성 요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성 요소들 중 하나 이상의 구성 요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 구성 요소로 통합될 수 있다. 이런 경우, 통합된 구성 요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성 요소에 의해 수행된 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    터치스크린;
    영상을 획득하는 이미지 센서;
    상기 터치스크린 및 상기 이미지 센서와 작동적으로 연결되는 프로세서; 및
    상기 프로세서와 작동적으로 연결되는 메모리를 포함하되,
    상기 메모리는 실행되었을 때, 상기 프로세서가
    상기 터치스크린의 화면의 적어도 일부 영역을 움직임 감지 영역으로 지정하고,
    상기 움직임 감지 영역에서 움직임이 감지되는지 확인하고, 및
    상기 움직임 감지 영역에서의 움직임 감지에 대응하여 상기 이미지 센서를 제어하여 초저속 녹화를 수행하도록 하는 인스트럭션들을 저장하는 전자 장치.
  2. 제 1 항에 있어서,
    상기 메모리는
    상기 움직임 감지 영역에서의 움직임 감지를 수행 중임을 사용자에게 통지하도록 하는 인스트럭션, 또는 상기 초저속 녹화가 수행 중임을 사용자에게 통지하도록 하는 인스트럭션 중 적어도 하나를 더 저장하는 전자 장치.
  3. 제 1 항에 있어서,
    상기 메모리는
    상기 움직임 감지 영역의 편집 요청에 대응하여 상기 움직임 감지 영역의 크기, 비율 또는 위치 중 적어도 하나를 변경하도록 하는 인스트럭션들을 더 저장하는 전자 장치.
  4. 제 1 항에 있어서,
    상기 전자 장치의 움직임을 감지하는 적어도 하나의 센서를 더 포함하고,
    상기 메모리는
    상기 적어도 하나의 센서를 통한 전자 장치의 움직임 감지에 대응하여, 상기 움직임 감지 영역에서의 움직임 감지를 중지하도록 하는 인스트럭션들을 더 저장하는 전자 장치.
  5. 제 1 항에 있어서,
    상기 메모리는
    상기 움직임 감지 영역의 지정에 대응하여 상기 움직임 감지 영역의 중심을 기반으로 상기 이미지 센서의 초점을 설정하도록 하는 인스트럭션들, 또는
    상기 움직임 감지 영역에서의 움직임 감지에 대응하여 상기 움직임 감지 영역의 중심으로 상기 이미지 센서의 초점을 이동하도록 하는 인스트럭션들 중 적어도 하나를 더 저장하는 전자 장치.
  6. 제 5 항에 있어서,
    상기 메모리는
    상기 이미지 센서의 초점 이동을 위한 영역을 상기 움직임 감지 영역보다 크게 설정하도록 하는 인스트럭션을 더 저장하는 전자 장치.
  7. 제 1 항에 있어서,
    상기 메모리는
    상기 초저속 녹화 대상의 이동 경로를 추적하고,
    상기 추적 결과에 기반하여 이동 경로를 예상하며,
    상기 예상된 이동 경로로 상기 움직임 감지 영역을 이동하도록 하는 인스트럭션들을 더 저장하는 전자 장치.
  8. 제 1 항에 있어서,
    상기 메모리는
    상기 움직임 감지 영역에서 움직임을 감지하는 도중 화면의 일측에서 터치가 감지되는 경우 상기 터치 발생 지점을 기반으로 상기 움직임 감지 영역 및 상기 이미지 센서의 초점을 이동하도록 하는 인스트럭션을 더 저장하는 전자 장치.
  9. 전자 장치의 녹화 방법에 있어서,
    화면의 적어도 일부 영역을 움직임 감지 영역으로 지정하는 동작;
    상기 움직임 감지 영역에서 움직임이 감지되는지 확인하는 동작; 및
    상기 움직임 감지 영역에서의 움직임이 감지되는 것에 대응하여 이미지 센서를 제어하여 초저속 녹화를 수행하는 동작을 포함하는 방법.
  10. 제 9 항에 있어서,
    상기 움직임 감지 영역에서의 움직임 감지를 수행 중임을 사용자에게 통지하는 동작; 또는
    상기 초저속 녹화가 수행 중임을 사용자에게 통지하는 동작 중 적어도 하나를 더 포함하는 방법.
  11. 제 9 항에 있어서,
    상기 움직임 감지 영역의 편집 요청을 감지하는 동작;
    상기 편집 요청에 대응하여 상기 움직임 감지 영역의 편집 모드로 진입하는 동작; 및
    사용자의 인터렉션에 대응하여 상기 움직임 감지 영역의 크기, 비율 또는 위치 중 적어도 하나를 변경하는 동작을 더 포함하는 방법.
  12. 제 9 항에 있어서,
    적어도 하나의 센서를 통해 상기 전자 장치의 움직임을 감지하는 동작; 및
    상기 적어도 하나의 센서를 통한 전자 장치의 움직임 감지에 대응하여, 상기 움직임 감지 영역에서의 움직임 감지를 중지하는 동작을 더 포함하는 방법.
  13. 제 9 항에 있어서,
    상기 움직임 감지 영역의 지정에 대응하여 상기 움직임 감지 영역의 중심을 기반으로 상기 이미지 센서의 초점을 설정하는 동작; 또는
    상기 움직임 감지 영역에서의 움직임 감지에 대응하여 상기 움직임 감지 영역의 중심으로 상기 이미지 센서의 초점을 이동하고, 상기 초저속 녹화를 수행하는 동작 중 적어도 하나를 더 포함하는 방법.
  14. 제 9 항에 있어서,
    상기 초저속 녹화 대상의 이동 경로를 추적하는 동작;
    상기 추적 결과에 기반하여 이동 경로를 예상하는 동작; 및
    상기 예상된 이동 경로로 상기 움직임 감지 영역을 이동하는 동작을 더 포함하는 방법.
  15. 제 9 항에 있어서,
    상기 움직임 감지 영역이 아닌 영역에서 터치가 발행하는지 확인하는 동작; 및
    상기 터치 발생에 대응하여 터치 지점을 기반으로 상기 움직임 감지 영역 및 상기 이미지 센서의 초점을 이동하는 동작을 더 포함하는 방법.
PCT/KR2019/002108 2018-02-23 2019-02-21 전자 장치 및 그의 녹화 방법 WO2019164286A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/966,995 US11696013B2 (en) 2018-02-23 2019-02-21 Electronic device and recording method thereof
CN201980014191.8A CN111742543A (zh) 2018-02-23 2019-02-21 电子设备及其记录方法
EP19757274.6A EP3742720A4 (en) 2018-02-23 2019-02-21 ELECTRONIC DEVICE AND ASSOCIATED RECEPTION METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0022241 2018-02-23
KR1020180022241A KR102645340B1 (ko) 2018-02-23 2018-02-23 전자 장치 및 그의 녹화 방법

Publications (1)

Publication Number Publication Date
WO2019164286A1 true WO2019164286A1 (ko) 2019-08-29

Family

ID=67688226

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/002108 WO2019164286A1 (ko) 2018-02-23 2019-02-21 전자 장치 및 그의 녹화 방법

Country Status (5)

Country Link
US (1) US11696013B2 (ko)
EP (1) EP3742720A4 (ko)
KR (1) KR102645340B1 (ko)
CN (1) CN111742543A (ko)
WO (1) WO2019164286A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD876465S1 (en) * 2018-02-23 2020-02-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD924912S1 (en) * 2019-09-09 2021-07-13 Apple Inc. Display screen or portion thereof with graphical user interface
USD1014536S1 (en) * 2021-08-30 2024-02-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD945453S1 (en) * 2021-09-16 2022-03-08 Fintech Innovation Associates Llc Display screen portion with animated graphical user interface
USD1001153S1 (en) * 2021-09-16 2023-10-10 PocktBank Corporation Display screen portion with animated graphical user interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110093040A (ko) * 2010-02-11 2011-08-18 엘지전자 주식회사 피사체 감시 장치 및 방법
KR101408118B1 (ko) * 2013-04-04 2014-06-17 주식회사 뷰웍스 고속영상 획득 및 조명제어 장치와 그 방법
US20170200472A1 (en) * 2016-01-07 2017-07-13 Samsung Electronics Co., Ltd. Electronic device and method of managing a playback rate of a plurality of images
KR20170089251A (ko) * 2016-01-26 2017-08-03 삼성전자주식회사 장치 및 그 장치에서 모션을 인식하여 장치를 제어하기 위한 방법
KR20180012161A (ko) * 2016-07-26 2018-02-05 삼성전자주식회사 영상 촬상 장치 및 이를 포함하는 전자 시스템

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8886298B2 (en) 2004-03-01 2014-11-11 Microsoft Corporation Recall device
JP5188071B2 (ja) 2007-02-08 2013-04-24 キヤノン株式会社 焦点調節装置、撮像装置及び、焦点調節方法
US9183716B2 (en) 2007-03-20 2015-11-10 International Business Machines Corporation System and method for managing moving surveillance cameras
JP2009200713A (ja) * 2008-02-20 2009-09-03 Sony Corp 画像処理装置、画像処理方法、プログラム
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
JP5872981B2 (ja) * 2012-08-02 2016-03-01 オリンパス株式会社 撮影機器,動体の撮影方法,撮影プログラム
US9313401B2 (en) * 2014-03-04 2016-04-12 Here Global B.V. Frame rate designation region
CN106575027B (zh) * 2014-07-31 2020-03-06 麦克赛尔株式会社 摄像装置及其被摄体跟踪方法
KR102155094B1 (ko) * 2014-08-28 2020-09-11 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20160029536A (ko) * 2014-09-05 2016-03-15 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
JP6442266B2 (ja) * 2014-12-16 2018-12-19 キヤノン株式会社 撮像制御装置、その制御方法、プログラム、及び記憶媒体
US20160182866A1 (en) * 2014-12-19 2016-06-23 Sony Corporation Selective high frame rate video capturing in imaging sensor subarea
JP6497987B2 (ja) * 2015-03-12 2019-04-10 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
GB2541713A (en) * 2015-08-27 2017-03-01 Rowan Graham Processing of high frame rate video data
JP6590666B2 (ja) 2015-11-30 2019-10-16 キヤノン株式会社 電子機器およびその制御方法
JP6701706B2 (ja) 2015-12-09 2020-05-27 株式会社ニコン 電子機器及びプログラム
JP6742173B2 (ja) * 2016-06-30 2020-08-19 キヤノン株式会社 焦点調節装置及び方法、及び撮像装置
US10173100B2 (en) 2016-09-17 2019-01-08 Navyaa Sinha Sport training equipment
JP7058945B2 (ja) * 2017-04-24 2022-04-25 キヤノン株式会社 像ブレ補正装置およびその制御方法、撮像装置
JP6570575B2 (ja) * 2017-05-02 2019-09-04 キヤノン株式会社 撮像装置およびその制御方法、並びにプログラム
JP7121470B2 (ja) * 2017-05-12 2022-08-18 キヤノン株式会社 画像処理システム、制御方法、及び、プログラム
CN107454322A (zh) 2017-07-31 2017-12-08 广东欧珀移动通信有限公司 拍照方法、装置、计算机可存储介质和移动终端
CN107396019B (zh) 2017-08-11 2019-05-17 维沃移动通信有限公司 一种慢动作视频录制方法及移动终端
US10440276B2 (en) * 2017-11-02 2019-10-08 Adobe Inc. Generating image previews based on capture information
KR102488410B1 (ko) * 2017-11-07 2023-01-16 삼성전자주식회사 복수의 카메라들을 이용하여 영상을 촬영하는 전자 장치와 이의 동작 방법
US11044420B2 (en) * 2018-10-29 2021-06-22 Henry M. Pena Real time video special effects system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110093040A (ko) * 2010-02-11 2011-08-18 엘지전자 주식회사 피사체 감시 장치 및 방법
KR101408118B1 (ko) * 2013-04-04 2014-06-17 주식회사 뷰웍스 고속영상 획득 및 조명제어 장치와 그 방법
US20170200472A1 (en) * 2016-01-07 2017-07-13 Samsung Electronics Co., Ltd. Electronic device and method of managing a playback rate of a plurality of images
KR20170089251A (ko) * 2016-01-26 2017-08-03 삼성전자주식회사 장치 및 그 장치에서 모션을 인식하여 장치를 제어하기 위한 방법
KR20180012161A (ko) * 2016-07-26 2018-02-05 삼성전자주식회사 영상 촬상 장치 및 이를 포함하는 전자 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3742720A4 *

Also Published As

Publication number Publication date
US11696013B2 (en) 2023-07-04
EP3742720A4 (en) 2020-12-09
CN111742543A (zh) 2020-10-02
EP3742720A1 (en) 2020-11-25
KR102645340B1 (ko) 2024-03-08
KR20190101825A (ko) 2019-09-02
US20210029293A1 (en) 2021-01-28

Similar Documents

Publication Publication Date Title
WO2019164286A1 (ko) 전자 장치 및 그의 녹화 방법
CN111147878B (zh) 直播中的推流方法、装置及计算机存储介质
WO2020171553A1 (en) An electronic device applying bokeh effect to image and controlling method thereof
WO2013103275A1 (en) Method and apparatus for implementing multi-vision system by using multiple portable terminals
WO2020162709A1 (en) Electronic device for providing graphic data based on voice and operating method thereof
CN104243819A (zh) 照片获取方法及装置
WO2015186964A1 (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
WO2020204659A1 (en) Electronic device, method, and computer-readable medium for providing bokeh effect in video
WO2015126060A1 (ko) 이미지를 처리하기 위한 전자 장치 및 방법
CN105245775A (zh) 摄像头成像方法、移动终端及装置
WO2020080845A1 (en) Electronic device and method for obtaining images
WO2019156480A1 (ko) 시선에 기반한 관심 영역 검출 방법 및 이를 위한 전자 장치
WO2021172832A1 (ko) 제스처 인식 기반의 영상 편집 방법 및 이를 지원하는 전자 장치
KR102668233B1 (ko) 관심 영역을 통해 움직이는 외부 객체에 대해 프레임 레이트를 제어하여 이미지들을 획득하는 전자 장치 및 그의 동작 방법
WO2019212156A1 (ko) 발열 제어를 위한 전자 장치 및 그의 동작 방법
CN105120155A (zh) 全景照片的生成方法及装置
WO2019164079A1 (ko) 생체 인증과 관련된 객체의 표시에 따라 생체 인증을 수행하는 방법 및 이를 위한 전자 장치
WO2020235890A1 (en) Electronic device having camera module capable of switching line of sight and method for recording video
WO2020116960A1 (en) Electronic device for generating video comprising character and method thereof
WO2019039861A1 (ko) 전자 장치 및 전자 장치에서 카메라 기능과 연관된 콘텐트 제공 방법
CN108509127B (zh) 启动录屏任务的方法、装置及计算机设备
WO2019151739A1 (en) Electronic apparatus and control method thereof
WO2020145653A1 (ko) 이미지의 촬영 장소를 추천하는 전자 장치 및 방법
WO2022030921A1 (ko) 전자 장치 및 그의 화면을 제어하는 방법
WO2020159115A1 (ko) 복수의 렌즈를 구비하는 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19757274

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019757274

Country of ref document: EP

Effective date: 20200817