WO2015186964A1 - 촬영 장치 및 촬영 장치의 비디오 생성방법 - Google Patents

촬영 장치 및 촬영 장치의 비디오 생성방법 Download PDF

Info

Publication number
WO2015186964A1
WO2015186964A1 PCT/KR2015/005565 KR2015005565W WO2015186964A1 WO 2015186964 A1 WO2015186964 A1 WO 2015186964A1 KR 2015005565 W KR2015005565 W KR 2015005565W WO 2015186964 A1 WO2015186964 A1 WO 2015186964A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
touch
screen
control unit
object area
Prior art date
Application number
PCT/KR2015/005565
Other languages
English (en)
French (fr)
Inventor
최준권
김성훈
유수진
정동진
한규춘
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US15/313,548 priority Critical patent/US10375312B2/en
Priority to EP15803556.8A priority patent/EP3154255B1/en
Priority to CN201580029542.4A priority patent/CN106416223B/zh
Publication of WO2015186964A1 publication Critical patent/WO2015186964A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Definitions

  • the following embodiments relate to a photographing apparatus and a video generating method of a photographing apparatus, and more particularly, to a photographing apparatus and a video generating method of a photographing apparatus for enlarging and tracking an object selected on a video screen.
  • the user captures various still images or videos using the photographing device.
  • a user may capture a desired video by adjusting an angle of view and an angle using a lens.
  • the user When shooting a video of a race car racing through the track, the user wants to shoot a dynamic video centered around the car of the cheering athlete. In this case, when the angle of view of the photographing apparatus and the lens is not sufficient, it is not easy for the user to shoot the desired video.
  • a video generating method of a photographing apparatus includes displaying a video on a screen of a photographing apparatus, detecting a user touch on an object in the video, and an object from which the user touch is detected. And expanding the first object area to the second object area corresponding to the size of the screen, wherein the object area is cropped and enlarged in the video.
  • the resolution of the second object region may be a resolution lower than the resolution of the video.
  • the photographing apparatus includes a touch screen displaying a video, and a control unit controlling the touch screen, wherein the control unit is configured to perform a user's touch on an object of a video displayed on the touch screen. Detect and enlarge and display a first object area including the object displayed in correspondence with the touch to a second object area corresponding to the size of the touch screen, and the resolution of the enlarged second object area is The resolution is lower than the resolution of the video.
  • a photographing apparatus includes a touch screen displaying a video, and a control unit controlling the touch screen, wherein the control unit includes a user's touch on an object of a video displayed on the touch screen. Is detected, the first object area including the object to be distinguishably displayed corresponding to the touch is enlarged and displayed on the second object area corresponding to the size of the touch screen, and is automatically displayed on the enlarged second object area. Apply focus and auto exposure.
  • a photographing apparatus and a video generating method of the photographing apparatus that enlarge and display an object selected by a user touch in a video displayed on a screen.
  • a photographing apparatus and a video generating method of the photographing apparatus which enlarge and display an object selected by a user's touch in a video displayed on a screen and continue to track.
  • a photographing apparatus and a video generating method of the photographing apparatus may be provided in which an object region including an object selected from the video displayed on the screen is enlarged and displayed, and the resolution of the enlarged object region is lower than that of the video.
  • a photographing apparatus and a video generating method of the photographing apparatus which enlarge and display an object region including an object selected from a video displayed on the screen, and apply an autofocus function and an auto exposure function to the enlarged object region, may be provided.
  • a photographing apparatus and a video generating method of the photographing apparatus may be provided to provide a user with at least one of visual feedback and auditory feedback corresponding to an enlarged display of an object area including an object selected from a video displayed on a screen.
  • the present invention may provide a photographing apparatus and a video generating method of the photographing apparatus, which enlarge and display and track an object selected by a user touch in a video displayed on a screen.
  • FIG. 1 is a schematic perspective view of a photographing apparatus according to an exemplary embodiment of the present invention.
  • FIG. 2 is a schematic block diagram illustrating a photographing apparatus according to an exemplary embodiment of the present invention.
  • 3A is a schematic flowchart illustrating a method of generating a video of a photographing apparatus according to an exemplary embodiment of the present invention.
  • 3B is a schematic flowchart illustrating a video generating method of a photographing apparatus according to another exemplary embodiment.
  • FIGS. 4A to 4H are diagrams illustrating an example of a video generating method of a photographing apparatus according to an exemplary embodiment of the present invention.
  • 5A to 8B are diagrams illustrating an example of a video generating method of a photographing apparatus according to another exemplary embodiment.
  • first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • the term “and / or” includes any combination of a plurality of related items or any item of a plurality of related items.
  • “Touch” can include touch on the touch screen, hovering as well as selection (pressing) of physical buttons.
  • “Resolution of Video Containing Objects” may include 4K resolution or higher.
  • Resolution of Video Including Objects may include HD, FHD resolution.
  • the "resolution of the video including the magnified object” may be lower than the "resolution of the video including the object".
  • the resolution of the area of the enlarged object may have a resolution of less than 4K.
  • FIG. 1 is a schematic front view of a photographing apparatus according to an exemplary embodiment of the present invention.
  • a photographing apparatus 100 photographs a plurality of cars running on a track (eg, still image photographing or video photographing).
  • the photographing apparatus 100 may include a lens 180 and a lens mount 185 on the front surface, a touch screen 150 and various buttons 161 on the rear surface.
  • the photographing apparatus 100 may include a button 161 and a mode dial 162 on the side connecting the front and the rear. The user may control settings and / or functions of the photographing apparatus 100 through buttons 161 on the side and the rear of the photographing apparatus 100.
  • the button 161 included in the photographing apparatus 100 may be implemented as a touch button (not shown) that detects a user's touch using a touch sensor (not shown) as well as a physical button.
  • the photographing apparatus 100 includes an electronic device having an image sensor 130 (see FIG. 2).
  • the photographing apparatus 100 may be a mobile phone, a smartphone, a tablet PC, a digital camera, a camcorder, a digital single-lens reflex camera or a lens interchangeable lens having an image sensor. It will be understood by those skilled in the art that the present invention may be implemented as a mirror-less camera that is interchangeable, but is not limited thereto.
  • the photographing apparatus 100 may include an electronic device (not shown) capable of capturing still images and / or moving images using one or more lenses or one or more lens group assemblies.
  • the photographing apparatus 100 may be integrated with or separated from an electronic device (not shown).
  • the separate photographing apparatus 100 may be connected to an electronic device (not shown) by wire / wireless, and may capture data (eg, still images or moving images) and / or images captured by the photographing apparatus 100.
  • Stored data eg, still images or moving images
  • FIG. 2 is a schematic block diagram illustrating a photographing apparatus according to an exemplary embodiment of the present invention.
  • the photographing apparatus 100 may be connected to an external device (not shown) by wire or wirelessly using the communication unit 120 or the input / output unit 160 under the control of the control unit 110.
  • External devices include other imaging devices, display devices, portable devices (e.g., not shown, mobile phones, smartphones, communicable sensors, etc.), computers (not shown), tablet PCs (not shown) ), And a server (not shown).
  • the photographing apparatus 100 includes a control unit 110, a communication unit 120, an image sensor 130, and a shutter 135.
  • the sensor unit 140, the touch screen 150, the input / output unit 160, the storage unit 170, the power unit 175, the battery 176, and the lens mount 185 are included.
  • the photographing apparatus 100 may include a lens 180 that is detachable and forms an incident light onto the image sensor 130.
  • the photographing apparatus 100 may be electrically connected to an external flash (not shown) capable of producing various light effects.
  • the control unit 110 stores a signal or data input from the processor 111, a flash memory 112 in which a control program for controlling the photographing apparatus 100 is stored, and an outside of the photographing apparatus 100. Or may include a RAM 113 used as a storage area corresponding to various operations performed by the photographing apparatus 100.
  • the control unit 110 controls the overall operation of the photographing apparatus 100 and the signal flow between the internal components 120 to 185 of the photographing apparatus 100, and performs a function of processing data.
  • the control unit 110 controls the power supplied through the power unit 190 to the internal components 120 to 185.
  • the control unit 110 may execute an installed operating system (OS) and various kinds of applications.
  • OS operating system
  • the processor 111 may include an image signal processor (ISP, not shown) for image processing corresponding to a still image or video.
  • An image signal processor (not shown) may convert an analog signal output from the image sensor 130 into a digital signal and perform image processing.
  • an image signal processor may perform image processing (e.g., various corrections and / or compression, etc.) on digital signals converted in separate A / D converters between the image sensor 130 and the processor 111. can do.
  • image processing can include Auto Exposure, which automatically adjusts exposure, Auto White Balance, which automatically adjusts white, Auto Focus, which automatically adjusts the subject's focus, Color interpolation, color correction, color space conversion, gamma correction, and / or image formatter functionality.
  • the processor 111 may include a graphic processing unit (GPU, not shown) for graphic processing corresponding to a still image or video.
  • GPU graphic processing unit
  • the processor 111 may implement a core (not shown), an image signal processor (not shown), and a graphics processing unit (not shown) as one system on chip (SoC).
  • the processor 111 may include a core (not shown) and an image signal processor (not shown).
  • the graphics processing unit (not shown) may be implemented separately from the processor 111.
  • the processor 111 may include a core (not shown) and a graphics processing unit (not shown).
  • An image signal processor (not shown) may be implemented separately from the processor 111.
  • the processor 111, the image signal processor (not shown), and the graphics processing unit (not shown) may each be implemented separately.
  • the core of the processor 111 may include a single core, dual cores, triple cores, quad cores, or multiples thereof.
  • the processor 111, the flash memory 112, and the RAM 113 may be interconnected through an internal bus.
  • control unit may be used as a term including the processor 111, the flash memory 112, and the RAM 113.
  • the control unit displays a video on a screen of a photographing apparatus, detects a user touch on an object in the video, displays the object differently from other objects, and includes a first object including the object.
  • An area may be enlarged and displayed as a second object area corresponding to the size of the screen, and the object area may be controlled to be cropped and enlarged in the video.
  • the control unit may control the resolution of the second object area to be displayed at a resolution lower than that of the video.
  • the control unit may control the size of the first object area to be changed by the user.
  • the control unit may control the video displayed on the screen to be displayed by one of pressing of a video shooting button of the photographing apparatus and selection from a video list displayed on the screen.
  • the control unit may control to track and display the object included in the enlarged second object area.
  • the control unit may control to perform the auto exposure function and the auto focus function corresponding to the object included in the second object area.
  • the control unit may control to store the enlarged second object area including the tracked object.
  • the control unit may control to display a picture in picture (PIP) screen on which the video is scaled as an overlay on the second object area.
  • PIP picture in picture
  • the control unit may control the PIP screen to be moved within the screen.
  • the control unit may control to provide at least one of visual feedback and auditory feedback in response to the expansion to the second object area.
  • control unit can be variously implemented according to the embodiment. .
  • the communication unit 120 may connect the photographing apparatus 100 to an external device by the control of the control unit.
  • the photographing apparatus 100 transmits / receives data (for example, still images or videos) and an external device connected through the communication unit 120 under the control of the control unit, downloads an application from the external device, or You can browse the web.
  • the communication unit 130 may include one of the wireless LAN 131, the Bluetooth 132, and the wired Ethernet 133 in response to the performance and structure of the photographing apparatus 100.
  • the communication unit 130 may include a combination of the wireless LAN 131, the Bluetooth 132, and the wired Ethernet 133.
  • the communication unit 120 may further include other short-range communication (eg, near field communication (NFC) (not shown)) or Bluetooth low energy (BLE), in addition to the Bluetooth 132.
  • NFC near field communication
  • BLE Bluetooth low energy
  • the image sensor 130 converts the light reflected from the subject under the control of the control unit and incident through the lens 180 into an electrical signal.
  • the electrical signal may be an analog or digital electrical signal.
  • the converted electrical signal is output to the control unit.
  • the converted electrical signal is also output to the image signal processor.
  • the image sensor 130 may include a charge coupled device (CCD) type image sensor or a complementary metal-oxide semiconductor (CMOS) type image sensor.
  • CCD charge coupled device
  • CMOS complementary metal-oxide semiconductor
  • the shutter 135 adjusts the amount of light incident on the image sensor 130 by using the shutter opening and closing speed under the control of the control unit. As the opening and closing speed of the shutter 135 is faster, a smaller amount of light may be incident to the image sensor 130, and as the opening and closing speed of the shutter 135 is slower, a larger amount of light may be incident to the image sensor 135.
  • the control unit may adjust the opening and closing speed of the shutter 135 using a shutter actuator (not shown) and a shutter controller (not shown).
  • the sensor unit 140 includes at least one sensor for detecting a state of the photographing apparatus 100.
  • the sensor unit 170 may include a gyro sensor 141 that detects a direction using a rotational inertia of the photographing apparatus 100, and a proximity sensor 142 that detects a degree of proximity to the user's photographing apparatus 100. It may include.
  • the sensor unit 140 may include an acceleration sensor (not shown) that detects an inclination of three axes (for example, the x-axis, the y-axis, and the z-axis) applied to the photographing apparatus 100, and the gravity of the unit. Gravity sensors (not shown) for detecting the direction of action, and fingerprint sensors (not shown) for user authentication.
  • At least one sensor included in the sensor unit 140 detects a state of the photographing apparatus 100, generates a signal corresponding to the detection, and transmits the signal to the control unit.
  • the control unit may control a function and / or setting of the photographing apparatus 100 corresponding to the state of the photographing apparatus 100 detected through the sensor unit 140.
  • the sensor of the sensor unit 140 may be added or deleted depending on the performance of the portable device 100.
  • the touch screen 150 includes a display unit 151 and a touch panel 152.
  • the touch screen 150 may provide a user with a graphical user interface (GUI) corresponding to various services (eg, capturing an image or video, viewing a stored image or video, or executing an application).
  • GUI graphical user interface
  • the screen may be used as a term including a screen of the touch screen 150 or a screen of the display unit 152.
  • the size of the screen may vary depending on the photographing apparatus 100. For example, the diagonal length of the screen may be 30 mm or more. In the case of a mobile terminal, the diagonal length of the screen may be 300 mm or less. In the case of the display device, the diagonal length of the screen may be 2,150 mm or less.
  • the display unit 151 may include a display controller (not shown). In addition, the display controller (not shown) may be separately located between the control unit and the display unit 151.
  • the touch screen 150 transmits an analog signal corresponding to a single touch or multi touch input through the touch panel 152 to a touch panel controller (not shown).
  • the touch screen 150 may receive a single touch or multi-touch through a user's body (for example, a finger including a thumb) or an input unit (not shown) including a stylus.
  • the touch screen 150 is not limited to the touch as well as the contact between the touch panel 152 and the user's body or input unit (not shown), and is not in contact (for example, the touch panel 152 and the user's body or input). And hovering with a distance of 50 mm or less from the unit (not shown). It will be readily understood by those skilled in the art that the detectable hovering distance on the touch screen 150 may vary depending on the performance or structure of the imaging device 100.
  • the touch panel 152 may be implemented by, for example, a resistive method, a capacitive method, an infrared method, or an ultrasonic wave method.
  • the touch screen 150 may further include an electromagnetic resonance (EMR) panel capable of detecting an input of an input unit (not shown) as well as the touch panel 152.
  • EMR electromagnetic resonance
  • the touch panel controller (not shown) converts an analog signal corresponding to a single touch or multi-touch received from the touch panel 152 into a digital signal (for example, X and Y coordinates corresponding to the detected touch position). Send to the control unit.
  • the control unit may calculate X and Y coordinates corresponding to the touch position on the touch screen 150 using the digital signal received from the touch panel controller (not shown).
  • the control unit may control the display unit 151 of the touch screen 150 using a digital signal received from a touch panel controller (not shown). For example, the control unit may display an item corresponding to a function (for example, picture size setting) displayed on the display unit 151 in response to the input touch (for example, 5472X3646 (3: 2), not shown). ) May be displayed separately from other items (2976X1984 (3: 2), not shown), and 191b to 191h. In addition, the control unit may execute an application (not shown) corresponding to the selected shortcut icon (not shown) and display it on the display unit 151 in response to the input touch.
  • a function for example, picture size setting
  • the control unit may execute an application (not shown) corresponding to the selected shortcut icon (not shown) and display it on the display unit 151 in response to the input touch.
  • the touch panel controller may include one or a plurality of touch panel controllers (not shown).
  • a touch panel controller (not shown) and / or a display controller (not shown) may be included in the control unit.
  • the photographing apparatus 100 may have only the display unit 151 without the touch panel 152 and the touch panel controller (not shown). The photographing apparatus 100 may not detect a user's touch.
  • the input / output unit 160 may receive content (eg, image, video, voice, music, data (eg, playback command)), etc. from the outside of the photographing apparatus 100 under the control of the control unit. Can be.
  • the input / output unit 160 includes a button 161, a mode dial 162, a microphone 163, a speaker 164, a high-definition multimedia interface port 165, and a USB input jack. 164).
  • the input / output unit 160 may use a combination of a button 161, a mode dial 162, a microphone 163, a speaker 164, an HDMI input port 165, and a USB input jack 164. It may include.
  • the button 161 may execute a function of the photographing apparatus 100 or change a setting.
  • the button 161 may include a power switch 161a, a shutter button 161b, a video recording button 161c, a navigation button 161d, an input button (ok button, 161e), a menu button 161f, a play button 161h, a delete / custom button 161i, and a function button Fn button 161g.
  • the power switch 161a may include an on / off power button (not shown).
  • the mode dial 162 may change a shooting mode (eg, program priority mode, shutter priority mode, etc.) of the photographing apparatus 100.
  • the photographing apparatus 100 may photograph a still image or a video by a photographing mode selected by a user under the control of the control unit.
  • the microphone 163 receives the uttered voice of the user.
  • the microphone 163 may convert the received voice into an electrical signal using an audio codec and output the converted signal to the control unit.
  • the user voice may include, for example, a voice corresponding to a menu or a function of the photographing apparatus 100.
  • the control unit may control the function and / or setting of the photographing apparatus 100 using the received voice.
  • the recognition range of the microphone 163 is recommended within 4 m from the microphone 163 to the user's position, and the recognition range of the microphone 163 is dependent on the size of the user's voice and the surrounding environment (for example, speaker sound and ambient noise). Can vary accordingly.
  • the microphone 163 may be integrated or separated from the photographing apparatus 100.
  • the separated microphone (not shown) may be electrically connected to the photographing apparatus 100 through the communication unit 120 or the input / output unit 160.
  • the speaker 164 outputs audio (eg, voice, sound, audio file, music file) received through the microphone 163 by the control of the control unit using the audio codec.
  • the speaker 164 may output audio input through the communication unit 120 or the input / output unit 160.
  • the speaker 164 may output audio stored in the storage unit 170 under control of the control unit.
  • the speaker 164 may include at least one of a headphone output terminal (not shown) or an S / PDIF output terminal (not shown).
  • the speaker 164 may output auditory feedback (eg, an audio file) corresponding to the enlargement of the object area under the control of the control unit.
  • auditory feedback eg, an audio file
  • the HDMI input port 165 may transmit / receive data with an external device (eg, a display device) that can be connected to the HDMI input port 165 under control of the control unit.
  • the display device may be an analog TV, a digital TV, a 3D-TV, a smart TV, an LED TV, an OLED TV, a plasma TV, a monitor, a curved TV having a fixed curvature screen, or a fixed curvature.
  • a flexible TV having a screen, a bent TV having a fixed curvature screen, and / or a curvature-variable TV that can change the curvature of the current screen by a received user input may be implemented. It will be easily understood by those skilled in the art.
  • the USB input jack 166 may transmit / receive data with an external device connectable to the USB input jack 166 under the control of the control unit.
  • the storage unit 170 may store various data, a control menu, a program, or an application for driving and controlling the photographing apparatus 100 by the control of the control unit.
  • the storage unit 170 includes a communication unit 120, an image sensor 130, a shutter 135, a sensor unit 140, a touch screen 150, an input / output unit 160, and a power unit 190. Input or output signals or data corresponding to driving may be stored.
  • the storage unit 170 may include a control program for controlling the photographing apparatus 100 and the control unit, an application initially provided from a manufacturer or downloaded from the outside, a graphical user interface (GUI) related to the application, and an object for providing a GUI. (Eg, image text, icons, buttons, etc.), user information, documents, databases, or related data.
  • GUI graphical user interface
  • storage unit in an embodiment of the invention includes the storage unit 170, the flash memory 112 of the control unit, and / or the RAM 113.
  • the storage unit may include a memory card (eg, a micro SD card, a USB memory, not shown) mounted on the photographing apparatus 100.
  • the storage unit may include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the storage unit is not shown broadcast communication control module, camera control module, voice recognition module, motion recognition module, volume control module, display control module, audio control module, input / output control module, power control module, voice database (DB) Or may include a motion database (DB).
  • Modules and databases not shown in the storage unit are provided with a communication control function, a camera function, a voice recognition function, a motion recognition function, a volume control module, a display control function, an audio control function, an external input control function, in the photographing apparatus 100.
  • it may be implemented in software form to perform a power control function.
  • the control unit can perform each function using these software stored in the storage unit.
  • the storage unit may store still images, videos, and / or additional information captured by the photographing apparatus 100 by the control of the control unit.
  • the storage unit may store a still image and / or a video corresponding to the video list displayed on the touch screen 150 of the portable device 100 by the control of the control unit.
  • the storage unit may store the selection information corresponding to the selection (for example, pressing) of the video shooting button by the control of the control unit.
  • the storage unit may store each touch position information corresponding to the first to fourth touches under the control of the control unit.
  • the storage unit may store the visual feedback and / or the auditory feedback corresponding to the enlargement of the second object area by the control of the control unit.
  • the storage unit may store the lens information received from the lens 180 by the control of the control unit.
  • the storage unit can store various information and signals for embodiments of the present invention by the control of the control unit. .
  • the power unit 175 supplies power input from an external power source to the components 120 to 180 inside the photographing apparatus 100 under the control of the control unit.
  • the power supply unit 175 may supply power to the battery 176 by charging from an external power source under the control of the control unit.
  • the lens unit 180 collects incident light (for example, a subject) by the image sensor 130.
  • the lens unit 180 includes one or a plurality of lens groups (not shown) for controlling a lens unit 18 (not shown), a memory (not shown), an aperture (not shown), a zoom and a focus. Not shown), an actuator (not shown) for moving the lens group (not shown) in the optical axis direction, and an optical image stabilization (OIS) module (not shown).
  • the memory may store related information of the photographing apparatus 100 received by the photographing apparatus 100 under the control of a lens controller (not shown).
  • the lens 180 and the photographing apparatus 100 are coupled through the lens mount 185.
  • the lens 180 is electrically connected to the control unit through the lens mount 185.
  • Lens information stored in a memory (not shown) of the lens 180 through the lens mount 185 is transmitted to the photographing apparatus 100 by the control of the control unit.
  • a controller (not shown) of the lens 180 may transmit lens information stored in a memory (not shown) to the photographing apparatus 100.
  • the lens information may include an identifier of the lens 180, a model name, an aperture of the lens, zoom state information, aperture information, optical image stabilization information, or focus information.
  • information (eg, manufacturer, identifier, etc.) of the photographing apparatus 100 stored in the storage unit of the photographing apparatus 100 may be transmitted to the lens 180 through the lens mount 185.
  • the photographing apparatus 100 may couple the lens unit 180 through the lens mount 185, but is not limited thereto.
  • the photographing apparatus 100 may be integrated with the lens unit 180.
  • the lens unit 180 may add or remove some components of the lens unit 180 (eg, a lens controller, a memory, etc.). Can be.
  • the photographing apparatus 100 may include a GPS unit (not shown).
  • the GPS unit (not shown) periodically receives information (e.g., accurate position information and time information of the GPS satellites receivable by the portable device 100) from a plurality of GPS satellites (not shown) on Earth's orbit. Receive.
  • the photographing apparatus 100 may know the position, the moving speed, or the time of the photographing apparatus 100 by using information received from a plurality of GPS satellites.
  • the components (eg, 110 to 176) illustrated in the photographing apparatus 100 of FIGS. 1 and 2 may be added or deleted at least one component corresponding to the performance of the photographing apparatus 100.
  • the positions of the components (eg, 110 to 176) may be changed corresponding to the performance or structure of the photographing apparatus 100.
  • 3A is a schematic flowchart illustrating a method of generating a video of a photographing apparatus according to an exemplary embodiment of the present invention.
  • FIGS. 4A to 4H are diagrams illustrating an example of a video generating method of a photographing apparatus according to an exemplary embodiment of the present invention.
  • 5A to 8B are diagrams illustrating an example of a video generating method of a photographing apparatus according to another exemplary embodiment.
  • step S301 of FIG. 3A the selection of the video capture button is received.
  • the power switch 161a of the photographing apparatus 100 when the power switch 161a of the photographing apparatus 100 is moved to an on position by the user, power is supplied to the photographing apparatus 100.
  • the touch screen 150 of the photographing apparatus 100 is also activated by power supply.
  • the photographing apparatus 100 faces the object to be photographed by the user, the continuous live view 200x including the object to be photographed is displayed on the touch screen 150.
  • the video capturing button 161c of the photographing apparatus 100 is pressed by the user's touch 201.
  • the photographing apparatus 100 may photograph the live view 200x at 4K resolution using the lens 180, the image sensor 130, and / or the control unit.
  • the control unit may perform image processing on the input live view 200x.
  • the control unit scales the image processed video 200 and displays it on the touch screen 150.
  • the control unit may store or temporarily store the 4K resolution video 200 corresponding to the live view 200x captured from the time when the touch 201 is detected in the storage unit.
  • the photographing apparatus 100 may capture a still image and / or a video having a UHD (Ultra High Definition) resolution that is about four times the full HD resolution (for example, around 4000 X 2000 pixels).
  • UHD resolution may include 4096 by 2160 pixels, or 3840 by 2160 pixels.
  • the photographing apparatus 100 may capture a still image and / or a video having an 8K resolution that is about four times the UHD resolution (for example, about 8000 pixels before and after about 4000 pixels).
  • 8K resolution may include 8192 ⁇ 4320 pixels, or 768 ⁇ 4320 pixels.
  • FHD resolution, 4K resolution or 8K resolution is one of the resolution that the photographing apparatus 100 can shoot, it will be easily understood by those of ordinary skill in the art.
  • the storage unit may store button selection information (eg, button name, button selection time, etc.) corresponding to the selection (eg, pressing) of the video shooting button by the control of the control unit.
  • the control unit may display the video recording start time on the touch screen 150 using the stored selection information.
  • the control unit may capture the video 200 according to the determined setting (for example, when the video shooting button 161c is pressed, the video shooting to enlarge and track the selected object).
  • the control unit may enlarge the object area 210 including the object 202 in which the touch 203 is detected.
  • the video capturing button 161c may further include a video mode switch 161k corresponding to the video mode.
  • the projection of the video mode switch 161k may move between the first position 161k1 and the second position 161k2.
  • the control unit shoots video in the normal video mode (for example, video shooting that enlarges and tracks the selected object is impossible).
  • the control unit shoots video in the tracking video mode (for example, video shooting that enlarges and tracks the selected object is possible).
  • the user may first select a video mode by using the video mode switch 161k and press the video capture button 161c.
  • the user may first press the video shooting button 161c and select the video mode from the video mode switch 161k.
  • the outer diameter of the video shooting button 161c is shorter than the outer diameter of the video mode switch 161k.
  • a popup 205 corresponding to the video mode is displayed on the screen.
  • the popup 205 corresponding to the video mode may include general video capture 205a and tracking video capture 205b. If the tracking video shooting 205b is selected from the pop-up 205 by the user, the control unit can take a video shooting in the tracking video mode. When the video shooting 205a is selected from the pop-up 205 by the user, the control unit may perform general video shooting in the normal video mode. In addition, when there are more video modes that the photographing apparatus 100 can support, the number of the pop-ups 205 displayed may be changed.
  • the photographing apparatus 100 when the video capturing button 161c of the photographing apparatus 100 is pressed by the user's touch 201, the photographing apparatus 100 is set to shoot video in a normal video mode. On the screen where the video is displayed, continuous movement of the touch may be input by the user in the object 202.
  • the control unit may detect the continuous movement of the touch 203 in contact with the touch screen 150 using the touch screen 150 and the touch screen controller (not shown).
  • the touch gesture for contacting the touch screen 150 may be one or a plurality of touch presenters.
  • Continuous movement of one touch 203 includes movement from the detection position 203a of the initial touch 203 to the detection position 204a of the last touch 204. Further, the continuous movement of one touch 203 maintains contact with the touch screen 150 continuously from the detection position 203a of the first touch 203 to the detection position 204a of the last touch 204. Means that. The continuous movement of one touch 203 is separated from the touch screen 150 at the detection position 204a of the last touch 204.
  • one of the continuous movement touch gestures of one touch 203 may include flick, swipe, double tap, or rotate.
  • control unit may change the normal video mode to the tracking video mode using the microphone 163 and the voice recognition module (not shown) that receive the input voice of the user.
  • the control unit may shoot video in the modified tracking video mode.
  • step S302 of FIG. 3A 4K video is displayed on the screen.
  • the video 200 is displayed on the screen of the photographing apparatus 100 under the control of the control unit.
  • the video 200 is processed and displayed corresponding to the screen size by the control of the control unit.
  • the video may be displayed at 60 frames per second or at 30 frames per second.
  • the displayed video 200 may be displayed in various sizes to correspond to the screen size of the photographing apparatus 100 (for example, the diagonal size of the screen).
  • the displayed video 200 may include various objects (eg, racing cars, tracks, etc.).
  • the object displayed on the video 200 may be selected by a user's touch.
  • the object displayed in the video 200 may be a moving object.
  • the object displayed on the video 200 may be selected by a button of the photographing apparatus (for example, 161d and 161e (see FIG. 1)).
  • step S303 of FIG. 3A the user's touch is detected in the object displayed on the screen.
  • an object 202 is touched by a user (or an input unit) among a plurality of objects (eg, 202 to 200e) displayed on the screen.
  • the control unit detects the first touch 203 on the screen through the touch screen 150 and the touch screen controller (not shown).
  • the control unit receives first position information (eg, X1 and Y1 coordinates corresponding to 203a) corresponding to the first touch 203 from the touch screen controller (not shown).
  • hovering of a user may be detected in the object 202 displayed on the screen.
  • the control unit may detect hovering on the screen through the touch screen 150 and the touch screen controller (not shown).
  • the control unit may receive eleventh position information (eg, X11 and Y11 coordinates) corresponding to the hovering detected from the touch screen controller (not shown).
  • the control unit may include the touch position 203a on the touch screen 150 included in the received first position information, the touch detection time (eg, 14:17), and the touch additional information corresponding to the touch (eg, Touch pressure, etc.) can be stored in the storage unit.
  • the control unit may further include a hovering position on the touch screen 150 included in the received eleventh position information, a touch detection time (eg, 14:18), and hovering additional information corresponding to the touch (eg, hovering). Height, etc.) can be stored in the storage unit.
  • Touch 203 in contact with touch screen 150 may be generated, for example, by one of the fingers including a thumb or by a touchable input unit. It is common in the art that the number of touches detectable by the control unit may vary in response to the performance or structure of the touch screen 150 and / or touch screen controller (not shown) of the imaging device 100. It can be easily understood by those who have knowledge.
  • step S304 of FIG. 3A objects corresponding to the touch are displayed on the screen to be distinguished.
  • the object 202 in which the touch 203 is detected is displayed to be distinguished from other objects 202a through 202e.
  • the distinction between the object 202 and other objects can be, for example, highlighting of the object 202, glimmering of the object 202, bold edges of the object 202, " object 202 " Lines 202l spaced apart (e.g. within 5 mm) at the edge of the object, greatly increasing the contrast of the object 202, indicating the turnover indication of the object 202, and underlined the object 202 ) And / or displaying the object 202 in a different color.
  • the distinction between the object 202 and other objects 202a through 202e may be indicated in an area defined by the control of the control unit (eg, within 10 mm relative to the edge of the object 202).
  • Methods of displaying the above-described object 202 differently from other objects 202a to 202e are not limited thereto, and it is easily understood by those skilled in the art that various objects can be displayed in various ways. It can be.
  • step S305 of FIG. 3A the object on which the touch is detected is enlarged.
  • the object region 210 including the object 202 whose touch is detected by the control of the control unit is enlarged.
  • the object area 210 controls the control unit. It can be enlarged to correspond to the size (for example, the screen size) gradually determined by.
  • the control unit may display the visual feedback 210-210d which enlarges the object area 210 at the current position to a determined size (eg, 800 X 480 pixels).
  • the visual feedback 210 to 210d may be enlarged from the current size 210 based on the object area 210 to the determined size 210d.
  • the visual feedback 210 to 210d may be gradually enlarged at a constant velocity from the current size of the object area 210 to the determined size 210d.
  • the visual feedback 210 to 210d may be enlarged to a size 210d determined based on the center position of the object area 210.
  • the magnification of the visual feedback 210 to 210d based on the vertex of the object region 210 may vary depending on the vertex of the object region 210. .
  • positions of vertices of the object area 210 that are gradually enlarged may be different from each other. For example, a position of a vertex of the object region 210 spaced far from the center position of the screen is further spaced from a vertex of the corresponding screen compared to a position of a vertex of the object region 210 spaced far from the center position of the screen. Can be.
  • the control unit may move the object region 210 at the current position to the center position of the screen.
  • the control unit may display visual feedback (not shown) that gradually enlarges the object region 210 moved to the center position of the screen at a constant speed (eg, 800 ⁇ 480 pixels).
  • a constant speed eg, 800 ⁇ 480 pixels.
  • the video 200 to be photographed may be a video having a resolution of 4K or higher.
  • the resolution of the cropped object area 210 may be between 4K resolution and HD resolution.
  • the resolution of the object area 210 enlarged to the screen size is It can also be Full HD resolution.
  • the object area 210 enlarged to the screen size may be an effect of 2x zoom based on the enlarged length.
  • control unit may provide auditory feedback corresponding to the enlargement of the object area 210.
  • the control unit may output auditory feedback (eg, an audio file, etc.) corresponding to the enlargement of the object area 210 through the speaker 164.
  • the control unit may selectively provide at least one of visual feedback and auditory feedback corresponding to the enlargement of the object region 210.
  • the size of the object area 210 may be changed by a user's touch.
  • the control unit may detect the touch position 205a at the edge 210k using the touch screen 150 and a touch screen controller (not shown).
  • the control unit displays a mark (eg, ⁇ ) on the edge 210k of the object area 210.
  • the control unit displays a mark (eg, ⁇ ) on the edge 210k of the object area 210.
  • a mark is displayed on the edge 210 of the object area 210, it means that the size of the object area 210 may be changed by a user's input.
  • Continuous movement of the touch 205 from the edge 210k of the object area 210 input by the user (for example, the detection position of the last touch 206 from the detection position 205a of the first touch 205). Up to 20a) can be detected.
  • the continuous movement of one touch 205 is separated from the touch screen 150 at the detection position 206a of the last touch 206.
  • the control unit may change the edge 210k of the object area 210 to the enlarged edge 210l.
  • the control unit may enlarge and display the enlarged edge 210l on the screen.
  • the control unit may adjust the photographing resolution based on the enlarged edge 210l.
  • the control unit may store the video of the adjusted shooting resolution.
  • step S306 of FIG. 3A the object tracking and the enlarged object area are displayed.
  • the object area 210 is enlarged and displayed on the screen by the control of the control unit (200y).
  • the control unit may track the object 202 of the enlarged object area 200y.
  • the control unit may continue tracking the object 202 in the enlarged object area 200y until the additional video capture button 161c is selected.
  • the control unit may capture and store the object 202 of the enlarged object area 200y until the additional video capture button 161c is selected.
  • control unit may track and display the object 202 of the object area 200y on the screen.
  • control unit may display the moving object 202 in the screen center area.
  • the control unit may perform an auto focus function and an auto exposure function on the object 202 of the enlarged object 200y.
  • a subject that is the subject of auto focus and auto exposure in FIG. 4B and a subject that is the subject of auto focus and auto exposure in FIG. 4F may be different.
  • the control unit may adjust the brightness and the focus of the object 202 of the enlarged object 200y.
  • control unit may perform various image processing (eg, color interpolation function, color compensation function, color space conversion function, as well as an auto focus function and an auto exposure function on the object 202 included in the enlarged object 200y).
  • image processing eg, color interpolation function, color compensation function, color space conversion function, as well as an auto focus function and an auto exposure function on the object 202 included in the enlarged object 200y.
  • the object tracking method has various algorithms and may include, for example, a point tracking method, a kernel tracking method, and a silhouette tracking method. Point tracking methods, kernel tracking methods, and silhouette tracking methods are further subdivided and varied.
  • the object 202 enlarged and displayed in FIG. 4F is not displayed differently from other objects unlike FIGS. 4D and 4E.
  • the edges of the object 202 are shown in bold in FIGS. 4D and 4E, the objects 202 in FIG. 4F may be displayed as the edges as shown in FIGS. 4B and 4CC.
  • step S307 of FIG. 3A the video is stored.
  • the video capturing button 161c of the photographing apparatus 100 is pressed by the user's touch 211.
  • the control unit may perform video (eg, video from FIG. 4B to FIG. 4F) from the time when the first touch 201 is detected to the time when the third touch 211 is detected. ) Can be stored in the storage unit.
  • the control unit may correspond to the pressed video shooting button 161c to display a video (eg, FIGS. 4C to 4F) from the time when the second touch 203 is detected to the time when the third touch 211 is detected. Video) can be stored in the storage unit.
  • Additional information corresponding to the video 200 to be stored may be stored as metadata.
  • the stored still image may be stored as metadata having similar additional information. It will be readily understood by those skilled in the art that additional information stored according to the photographing apparatus 100 may be added, deleted or changed.
  • step S307 of FIG. 3A when the control unit stores the video 200, the video generating method of the photographing apparatus is terminated.
  • step S305 of FIG. 3A when the object on which the touch is detected is magnification and picture in picture (PIP), the flow advances to step S308.
  • step S308 of FIG. 3A the object on which the touch is detected is displayed in magnification and PIP.
  • the object region including the object 202 whose touch is detected by the control of the control unit is enlarged and displayed (200y), and is positioned at one of the corners of the enlarged screen 200y of the object region 210.
  • the reduced PIP (Picture in Picture) screen 200a may be displayed.
  • the PIP screen 200a may be a screen displayed by scaling the captured video 200.
  • the PIP screen 200a may be displayed by being overlaid on the screen 200y in which the object region 210 is enlarged.
  • the control unit may display the PIP screen 200a having transparency (eg, 0 to 100% transparency).
  • the control unit may track the object 202 of the enlarged object area 200y, which is distinguished from the PIP screen 200a.
  • the control unit may track and display the object 202 of the object area 200y on the screen.
  • the control unit may display the moving object 202 in the screen center area.
  • the control unit may provide the user with the current position in the video 200 of the enlarged screen 200y of the object area 210 and the positional relationship of other objects through the PIP screen 200a.
  • control unit may change the position of the PIP screen 200a to other corners 200b to 200d by a user's touch (not shown) or setting.
  • control unit may change the PIP screen 200a to another corner by a touch gesture (for example, touch and drag, not shown) of the user.
  • the control unit may move the PIP screen 200a not only to the corner but also to a position where the user stops the touch gesture (for example, the center area of the screen, between the two corners 200a and 200b, etc.).
  • touch gesture for moving the PIP screen 200a may be applied with various touch gestures (eg, flick, swipe, double tap, multi-touch gesture, etc.) as well as touch and drag. It will be easily understood by those who have.
  • step S310 of FIG. 3A the video is stored.
  • the video capturing button 161c of the photographing apparatus 100 is pressed by the user's touch 212.
  • the control unit outputs a video from the time point at which the first touch 201 is detected to the time point at which the fourth touch 212 is detected (eg, video from FIGS. 4B to 4G). (Except for FIG. 4F)) can be stored in the storage unit.
  • the control unit may correspond to the pressed video shooting button 161c to output a video (for example, FIGS. 4C to 4G from the time when the second touch 203 is detected to the time when the fourth touch 212 is detected). Video (except FIG. 4F) can be stored in the storage unit.
  • Additional information corresponding to the stored video 200y + 200a may be stored as metadata.
  • step S310 of FIG. 3A when the control unit stores the video 200y + 200a, the video generating method of the photographing apparatus is terminated.
  • 3B is a schematic flowchart illustrating a video generating method of a photographing apparatus according to another exemplary embodiment.
  • step S351 of FIG. 3B a video list is displayed on the screen.
  • the control unit displays a video list 220 arranged in thumbnail size in response to a user input (not shown) on the screen. For example, when a user input is detected at the play button 161h, the control unit may display the video list 220 on the screen.
  • the displayed video list 220 may include still images 222a through 222l as well as videos 221a through 221c.
  • Still images 222a through 222l or videos 221a through 221c displayed in the video list 220 are pre-stored in the storage unit 170.
  • the still images 222a to 222l or the videos 221a to 221c displayed in the video list 220 may be downloaded from an external device through the communication unit 120 under the control of the control unit.
  • step S352 of FIG. 3B the selection of the video from the video list is received.
  • the video 221c is touched by the user in the video list 220.
  • the control unit detects the twenty-first touch 207 on the screen through the touch screen 150 and the touch screen controller (not shown).
  • the control unit receives the twenty-first positional information (for example, X21 and Y21 coordinates corresponding to 207a) corresponding to the twenty-first touch 203 from the touch screen controller (not shown).
  • the user's hovering may be detected in video 221c.
  • step S352 of FIG. 3B Since the detection of the touch 207 in step S352 of FIG. 3B is substantially the same as that of step S303 of FIG. 3A, overlapping description may be omitted.
  • Methods according to an exemplary embodiment of the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the computer readable medium may or may not be erased or rewritable, such as volatile or nonvolatile storage devices such as storage devices such as ROM, or RAM, memory chips, devices or integrated circuits, for example. It may be stored in a memory or a storage medium that is optically or magnetically recordable such as, for example, CD, DVD, magnetic disk or magnetic tape and the like, and which can be read by a machine (eg, a computer).
  • a memory that can be included in a portable device is an example of a machine-readable storage medium suitable for storing a program or programs containing instructions for implementing embodiments of the present invention.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having ordinary skill in the computer software arts.

Abstract

촬영 장치 및 촬영 장치의 비디오 생성방법이 제공된다. 보다 상세하게는 화면에 표시되는 비디오에서 선택된 오브젝트를 확대하여 표시하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공된다. 개시된 실시예 중 일부는 화면에 표시되는 비디오에서 선택된 오브젝트를 확대하고 확대된 오브젝트를 추적하여 화면에 표시하는 촬영 장치 및 촬영 장치의 비디오 생성방법을 제공한다.

Description

촬영 장치 및 촬영 장치의 비디오 생성방법
아래 실시예들은 촬영 장치 및 촬영 장치의 비디오 생성방법에 관한 것으로, 상세하게는 비디오 화면에서 선택된 오브젝트를 확대하여 추적하는 촬영 장치 및 촬영 장치의 비디오 생성방법에 관한 것이다.
사용자는 촬영 장치를 이용하여 다양한 스틸 이미지 또는 비디오를 촬영한다. 사용자는 렌즈를 이용하여 화각(angle of view) 및 앵글 등을 조절하여 원하는 비디오를 촬영할 수 있다.
트랙을 질주하는 자동차 경주를 비디오로 촬영하는 경우, 사용자는 응원하는 선수의 자동차를 위주로 역동적인 비디오를 촬영하고 싶어한다. 이런 경우, 촬영 장치 및 렌즈의 화각이 충분하지 않은 경우, 사용자가 원하는 비디오를 촬영하기가 쉽지 않다.
본 발명의 실시예에 따른 촬영 장치의 비디오 생성방법은 촬영 장치의 화면에 비디오를 표시하는 단계, 상기 비디오에 있는 오브젝트에서 사용자 터치를 검출하는 단계, 및 상기 사용자 터치가 검출된 오브젝트를 포함하는 제1 오브젝트 영역을 상기 화면의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하는 단계를 포함하고, 상기 오브젝트 영역은 상기 비디오에서 크롭되어 확대된다.
본 발명의 일측에 따르면, 상기 제2 오브젝트 영역의 해상도는 상기 비디오의 해상도보다 낮은 해상도일 수 있다.
본 발명의 실시예에 따른 촬영 장치는 비디오를 표시하는 터치 스크린, 및, 상기 터치 스크린을 제어하는 제어 유닛을 포함하고, 상기 제어 유닛은, 상기 터치 스크린에 표시되는 비디오의 오브젝트에서 사용자의 터치를 검출하고, 상기 터치에 대응하여 구별되게 표시되는 상기 오브젝트를 포함하는 제1 오브젝트 영역을 상기 터치 스크린의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하고, 상기 확대된 제2 오브젝트 영역의 해상도는 상기 비디오의 해상도보다 낮은 해상도이다.
본 발명의 다른 실시예에 따른 촬영 장치는 비디오를 표시하는 터치 스크린, 및, 상기 터치 스크린을 제어하는 제어 유닛을 포함하고, 상기 제어 유닛은, 상기 터치 스크린에 표시되는 비디오의 오브젝트에서 사용자의 터치를 검출하고, 상기 터치에 대응하여 구별되게 표시되는 상기 오브젝트를 포함하는 제1 오브젝트 영역을 상기 터치 스크린의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하고, 상기 확대된 제2 오브젝트 영역에 자동 초점 및 자동 노출을 적용한다.
화면에 표시되는 비디오에서 사용자 터치에 의해 선택된 오브젝트를 확대하여 표시하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
화면에 표시되는 비디오에서 사용자 터치에 의해 선택된 오브젝트를 확대하여 표시하고, 계속 추적가능한 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
화면에 표시되는 비디오에서 선택된 오브젝트를 포함하는 오브젝트 영역을 확대하여 표시하고, 확대된 오브젝트 영역의 해상도는 비디오의 해상도보다 낮은 해상도인 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
화면에 표시되는 비디오에서 선택된 오브젝트를 포함하는 오브젝트 영역을 확대하여 표시하고, 확대된 오브젝트 영역에 자동 초점 기능 및 자동 노출 기능을 적용하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
화면에 표시되는 비디오에서 선택된 오브젝트를 포함하는 오브젝트 영역을 확대 표시에 대응하여 시각 피드백 및 청각 피드백 중 적어도 하나를 사용자에게 제공하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
이에 한정되지 않고 본 발명의 다양한 실시예에 따르면, 화면에 표시되는 비디오에서 사용자 터치에 의해 선택된 오브젝트를 확대하여 표시하고 추적하는 촬영 장치 및 촬영 장치의 비디오 생성방법이 제공될 수 있다.
도 1은 본 발명의 실시예에 따른 촬영 장치를 나타내는 개략적인 사시도이다.
도 2는 본 발명의 실시예에 따른 촬영 장치를 나타내는 개략적인 블럭도이다.
도 3a은 본 발명의 실시예에 따른 촬영 장치의 동영상 생성방법을 나타내는 개략적인 순서도이다.
도 3b은 본 발명의 다른 실시예에 따른 촬영 장치의 동영상 생성방법을 나타내는 개략적인 순서도이다.
도 4a 내지 도 4h는 본 발명의 실시예에 따른 촬영 장치의 비디오 생성방법의 예를 나타내는 도면이다.
도 5a 내지 도 8b는 본 발명의 다른 실시예에 따른 촬영 장치의 비디오 생성방법의 예를 나타내는 도면이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명을 제조하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다.
"제1" 및 "제2" 와 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. "터치"는 터치 스크린에서의 터치, 호버링뿐만 아니라 물리적인 버튼의 선택(누름)을 포함할 수 있다. "오브젝트를 포함하는 비디오의 해상도"는 4K 해상도 또는 그 이상의 해상도를 포함할 수 있다. "오브젝트를 포함하는 비디오의 해상도"는 HD, FHD 해상도를 포함할 수도 있다. 또한, "확대된 오브젝트를 포함하는 비디오의 해상도"는 "오브젝트를 포함하는 비디오의 해상도"보다 낮을 수 있다. 예를 들어, "오브젝트를 포함하는 비디오의 해상도"가 4K 해상도인 경우, 확대된 오브젝트의 영역의 해상도는 4K 미만의 해상도를 가질 수 있다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
도 1은 본 발명의 실시예에 따른 촬영 장치를 나타내는 개략적인 정면도이다.
도 1을 참조하면, 촬영 장치(photographing apparatus, 100)는 트랙을 달리는 복수의 자동차를 촬영(예를 들어, 스틸 이미지(still image) 촬영 또는 동영상(video) 촬영)한다.
촬영 장치(100)는 전면에 렌즈(180) 및 렌즈 마운트(185), 후면에 터치 스크린(150) 및 다양한 버튼(161)을 포함할 수 있다. 또한, 촬영 장치(100)는 전면과 후면을 연결하는 측면에 버튼(161) 및 모드 다이얼(162)을 포함할 수 있다. 사용자는 촬영 장치(100)의 측면 및 후면에 있는 버튼(161)을 통해 촬영 장치(100)의 설정 및/또한 기능을 제어할 수 있다.
촬영 장치(100)에 포함되는 버튼(161)은 물리 버튼뿐만 아니라 접촉 센서(도시되지 아니함)을 이용하여 사용자의 터치를 검출하는 터치 버튼(도시되지 아니함)으로 구현될 수 있다.
촬영 장치(100)는 이미지 센서(130, 도2 참조)를 가지는 전자 장치를 포함한다. 예를 들어, 촬영 장치(100)는 이미지 센서를 가지는 휴대폰, 스마트 폰, 태블릿 PC, 디지털 카메라, 캠코더(camcorder), 렌즈 교환이 가능한 디지털 일안 반사식 카메라(digital single-lens reflex camera), 또는 렌즈 교환이 가능한 미러리스 카메라(mirror-less camera)로 구현될 수 있으며, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.  또한, 촬영 장치(100)는 하나 또는 복수의 렌즈 또는 하나 또는 복수의 렌즈군 조립체를 이용하여 스틸 이미지 및/또는 동영상을 촬영 가능한 전자 장치(도시되지 아니함)를 포함할 수 있다.
촬영 장치(100)는 전자 장치(도시되지 아니함)와 일체형이거나 또는 분리형일 수 있다. 예를 들어, 분리형 촬영 장치(100)는 전자 장치(도시되지 아니함)와 유/무선으로 연결가능하고, 촬영 장치(100)에서 촬영된 데이터(예를 들어, 스틸 이미지 또는 동영상) 및/또는 기 저장된 데이터(예를 들어, 스틸 이미지 또는 동영상)를 전자 장치(도시되지 아니함)로 송/수신할 수 있다.
도 2는 본 발명의 실시예에 따른 촬영 장치를 나타내는 개략적인 블럭도이다.
도 2를 참조하면, 촬영 장치(100)는 제어 유닛(110)의 제어에 의해 통신 유닛(120) 또는 입/출력 유닛(160)을 이용하여 외부 장치(도시되지 아니함)와 유선 또는 무선으로 연결될 수 있다. 외부 장치(도시되지 아니함)는 다른 촬영 장치, 디스플레이 장치, 휴대 장치(예를 들어, 휴대폰, 스마트폰, 통신가능한 센서 등, 도시되지 아니함), 컴퓨터(도시되지 아니함), 태블릿 PC(도시되지 아니함), 및 서버(도시되지 아니함)를 포함할 수 있다.
촬영 장치(100)는 제어 유닛(110), 통신 유닛(120), 이미지 센서(130), 셔터(135). 센서 유닛(140), 터치 스크린(150), 입/출력 유닛(160), 저장 유닛(170), 전원 유닛(175), 배터리(176) 및 렌즈 마운트(185)를 포함한다. 또한, 촬영 장치(100)는 탈착 가능하고, 입사되는 광을 이미지 센서(130)에 결상시키는 렌즈(180)를 포함할 수 있다. 또한, 촬영 장치(100)는 다양한 빛의 효과를 연출 가능한 외장 플래시(도시되지 아니함)와 전기적으로 연결될 수 있다.
제어 유닛(110)은 프로세서(Processor, 111), 촬영 장치(100)의 제어를 위한 제어 프로그램이 저장된 플래시 메모리(flash memory, 112) 및 촬영 장치(100)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 촬영 장치(100)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다.
제어 유닛(110)은 촬영 장치(100)의 전반적인 동작 및 촬영 장치(100)의 내부 구성 요소들(120 내지 185)사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어 유닛(110)은 전원 유닛(190)을 통해 공급되는 전원을 내부 구성 요소들(120 내지 185)에게 제어한다. 또한, 사용자의 입력 또는, 기 설정되어 조건을 만족하는 경우, 제어 유닛(110)은 설치된 OS(Operation System) 및 다양한 종류의 어플리케이션을 실행할 수 있다.
프로세서(111)는 스틸 이미지 또는 비디오에 대응되는 이미지 처리를 위한 이미지 시그널 프로세서(Image Signal Processor: ISP, 도시되지 아니함)를 포함할 수 있다. 이미지 시그널 프로세서(도시되지 아니함)는 이미지 센서(130)에서 출력되는 아날로그 신호를 디지털 신호로 변환하고 이미지 프로세싱을 할 수 있다. 또한, 이미지 시그널 프로세서(도시되지 아니함)는 이미지 센서(130)와 프로세서(111)사이의 별도 A/D컨버터에서 변환된 디지털 신호에 대해 이미지 프로세싱(예를 들어, 다양한 보정 및/또는 압축 등)을 할 수 있다. 예를 들어, 이미지 프로세싱은 자동으로 노출을 조정하는 자동 노출(Auto Exposure), 자동으로 흰색을 조정하는 자동 화이트 밸런스(Auto White Balance), 자동으로 피사체의 초점을 조정하는 자동 초점(Auto Focus), 컬러 인터폴레이션(color interpolation), 컬러 보상(color correction), 컬러 공간 변환(color space conversion), 감마 보상(gamma correction), 및/또는 이미지 포매터(image formatter) 기능을 포함할 수 있다.
또한, 프로세서(111)는 스틸 이미지 또는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세싱 유닛(Graphic Processing Unit: GPU, 도시되지 아니함)을 포함할 수 있다.
프로세서(111)는 코어(core, 도시되지 아니함), 이미지 시그널 프로세서(도시되지 아니함) 및 그래픽 프로세싱 유닛(도시되지 아니함)을 하나의 SoC(System On Chip)로 구현될 수 있다. 프로세서(111)는 코어(도시되지 아니함)와 이미지 시그널 프로세서(도시되지 아니함)를 포함할 수 있다. 그래픽 프로세싱 유닛(도시되지 아니함)은 프로세서(111)와 별개로 구현될 수 있다. 프로세서(111)는 코어(도시되지 아니함)와 그래픽 프로세싱 유닛(도시되지 아니함)를 포함할 수 있다. 이미지 시그널 프로세서(도시되지 아니함)는 프로세서(111)와 별개로 구현될 수도 있다. 프로세서(111), 이미지 시그널 프로세서(도시되지 아니함) 및 그래픽 프로세싱 유닛(도시되지 아니함)는 각각 별개로 구현될 수도 있다. 프로세서(111)의 코어는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 또는 그 배수를 포함할 수 있다. 또한, 프로세서(111), 플래시 메모리(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.
본 발명의 실시예에서 제어유닛은 프로세서(111), 플래시 메모리(112) 및 램(113)을 포함하는 용어로 사용될 수 있다.
본 발명의 실시예에 따른 제어 유닛은 촬영 장치의 화면에 비디오를 표시하고, 상기 비디오에 있는 오브젝트에서 사용자 터치를 검출하여 상기 오브젝트를 다른 오브젝트와 구별되게 표시하고, 상기 오브젝트를 포함하는 제1 오브젝트 영역을 상기 화면의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하고, 상기 오브젝트 영역을 상기 비디오에서 크롭되어 확대되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제2 오브젝트 영역의 해상도를 상기 비디오의 해상도보다 낮은 해상도로 표시되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제1 오브젝트 영역의 크기는 사용자에 의해 변경되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 화면에 표시되는 상기 비디오는 촬영 장치의 비디오 촬영 버튼의 눌림 및 상기 화면에 표시되는 비디오 목록에서의 선택 중 하나에 의해 표시되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 확대된 상기 제2 오브젝트 영역에 포함된 상기 오브젝트를 추적하여 표시하도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제2 오브젝트 영역에 포함된 상기 오브젝트에 대응되는 자동 노출 기능 및 자동 초점 기능을 수행하도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 추적된 오브젝트를 포함하는 확대된 제2 오브젝트 영역을 저장되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제2 오브젝트 영역에 상기 비디오를 스케일링한 PIP(picture in picture) 화면을 오버레이로 표시되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 PIP 화면을 화면 내에서 이동되도록 제어할 수 있다.
본 발명의 실시예에 따른 제어 유닛은 상기 제2 오브젝트 영역으로의 확대에 대응하여 시각 피드백 및 청각 피드백 중 적어도 하나를 제공되도록 제어할 수 있다.
제어 유닛의 구성 및 동작은 실시예에 따라 다양하게 구현될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다. .
통신 유닛(120)은 제어 유닛의 제어에 의해 촬영 장치(100)를 외부 장치와 연결할 수 있다. 촬영 장치(100)는 제어 유닛의 제어에 의해 통신 유닛(120)을 통해 연결된 외부 장치와 데이터(예를 들어, 스틸 이미지 또는 비디오)를 송/수신, 외부 장치에서부터 어플리케이션(application)을 다운로드, 또는 웹 브라우징을 할 수 있다. 통신 유닛(130)은 촬영 장치(100)의 성능 및 구조에 대응하여 무선랜(131), 블루투스(bluetooth, 132) 및 유선 이더넷(Ethernet, 133) 및 중 하나를 포함할 수 있다. 또한, 통신 유닛(130)은 무선랜(131), 블루투스(132), 및 유선 이더넷(133)의 조합을 포함할 수 있다. 또한, 통신 유닛(120)은 블루투스(132)외에 다른 근거리 통신(예를 들어, NFC(near field communication, 도시되지 아니함), BLE(bluetooth low energy, 도시되지 아니함)를 더 포함할 수 있다.
이미지 센서(130)는 제어 유닛의 제어에 의해 피사체에서 반사되어 렌즈(180)를 통해 입사되는 광을 전기 신호로 변환한다. 전기 신호는 아날로그 또는 디지털 전기 신호일 수 있다. 변환된 전기 신호는 제어 유닛으로 출력된다. 또한, 변환된 전기 신호는 이미지 신호 프로세서로 출력된다. 이미지 센서(130)는 전하결합소자(charge coupled device: CCD) 타입 이미지 센서 또는 상보성 금속 산화막 반도체(complementary metal-oxide semiconductor: CMOS) 타입 이미지 센서를 포함할 수 있다.
셔터(135)는 제어 유닛의 제어에 의해 셔터 개폐 속도를 이용하여 이미지 센서(130)으로 입사되는 빛의 양을 조정한다. 셔터(135)의 개폐 속도가 빠를 수록 적은 양의 빛이 이미지 센서(130)로 입사되고, 셔터(135)의 개폐 속도가 느릴 수록 많은 양의 빛이 이미지 센서(135)로 입사될 수 있다. 제어 유닛은 셔터(135)의 개폐 속도를 셔터 액추에이터(도시되지 아니함), 셔터 컨트롤러(도시되지 아니함)를 이용하여 조정할 수 있다.
센서 유닛(140)은 촬영 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서유닛(170)은 촬영 장치(100)의 회전관성을 이용하여 방향을 검출하는 자이로 센서(141), 사용자의 촬영 장치(100)에 근접 정도를 검출하는 근접 센서(142)를 포함할 수 있다. 또한, 센서 유닛(140)은 촬영 장치(100)에 가해지는 3축(예를 들어, x축, y축, z축)의 기울기를 검출하는 가속도 센서(acceleration sensor, 도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(gravity sensor, 도시되지 아니함)) 및 사용자 인증을 위한 지문 센서(fingerprint sensor, 도시되지 아니함)를 포함할 수 있다.
센서 유닛(140)에 포함되는 적어도 하나의 센서는 촬영 장치(100)의 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어 유닛으로 전송한다. 제어 유닛은 센서 유닛(140)을 통해 검출된 촬영 장치(100)의 상태에 대응되는 촬영 장치(100)의 기능 및/또는 설정을 제어할 수 있다.
센서 유닛(140)의 센서는 휴대 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다는 것은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
터치 스크린(150)은 디스플레이 유닛(151) 및 터치 패널(152)를 포함한다. 터치 스크린(150)은 사용자에게 다양한 서비스(예를 들어, 이미지 또는 비디오 촬영, 저장된 이미지 또는 비디오가 보기, 또는 어플리케이션 실행)에 대응되는 GUI(Graphical User Interface)를 제공할 수 있다. 본 발명의 실시예에서, 화면은 터치 스크린(150)의 화면 또는 디스플레이 유닛(152)의 화면을 포함하는 용어로 사용될 수 있다. 화면의 크기는 촬영 장치(100)에 따라 다양할 수 있다. 예를 들어, 화면의 대각선 길이는 30 ㎜ 이상일 수 있다. 휴대 단말의 경우, 화면의 대각선 길이는 300 ㎜ 이하일 수 있다. 또한, 디스플레이 장치의 경우, 화면의 대각선 길이는 2,150 ㎜ 이하일 수도 있다.
디스플레이 유닛(151)은 디스플레이 컨트롤러(도시되지 아니함)를 포함할 수 있다. 또한, 디스플레이 컨트롤러(도시되지 아니함)는 제어 유닛과 디스플레이 유닛(151) 사이에 별도로 위치할 수 있다. 터치 스크린(150)은 터치 패널(152)을 통해 입력되는 싱글 터치 또는 멀티 터치에 대응되는 아날로그 신호를 터치 패널 컨트롤러(도시되지 아니함)로 전송한다. 터치 스크린(150)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 스타일러스를 포함하는 입력 유닛(도시되지 아니함)을 통해 싱글 터치 또는 멀티 터치를 입력 받을 수 있다.
터치 스크린(150)은 터치뿐만 아니라 터치 패널(152)과 사용자의 신체 또는 입력 유닛(도시되지 아니함)의 접촉에 한정되지 않고, 비접촉(예를 들어, 터치 패널(152)과 사용자의 신체 또는 입력 유닛(도시되지 아니함)과의 간격이 50 mm 이하인 호버링(hovering))을 포함할 수 있다. 터치 스크린(150)에서 검출가능한 호버링의 간격은 촬영 장치(100)의 성능 또는 구조에 따라 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
터치 패널(152)은 예를 들어, 저항막(resistive) 방식, 정전 용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다. 또한, 터치 스크린(150)은 터치 패널(152)뿐만 아니라 입력 유닛(도시되지 아니함)의 입력을 검출가능한 전자기 공명 방식(electromagnetic resonance: EMR) 패널을 더 포함할 수 있다.
터치 패널 컨트롤러(도시되지 아니함)는 터치 패널(152)에서부터 수신된 싱글 터치 또는 멀티 터치에 대응되는 아날로그 신호를 디지털 신호(예를 들어, 검출된 터치 위치에 대응되는 X와 Y좌표)로 변환하여 제어 유닛으로 전송한다. 제어 유닛은 터치 패널 컨트롤러(도시되지 아니함)에서부터 수신된 디지털 신호를 이용하여 터치 스크린(150) 상의 터치 위치에 대응되는 X와 Y좌표를 산출할 수도 있다.
제어 유닛은 터치 패널 컨트롤러(도시되지 아니함)에서부터 수신된 디지털 신호를 이용하여 터치 스크린(150)의 디스플레이 유닛(151)을 제어할 수 있다. 예를 들어, 제어 유닛은 입력된 터치에 응답하여 디스플레이 유닛(151)에 표시되는 기능(예를 들어, 사진 크기 설정)에 대응되는 항목(예를 들어, 5472X3646(3:2), 도시되지 아니함)을 다른 항목(2976X1984(3:2), 도시되지 아니함)들어, 191b 내지 191h)과 구분되게 표시할 수 있다. 또한, 제어 유닛은 입력된 터치에 응답하여 선택된 단축 아이콘(도시되지 아니함)에 대응되는 어플리케이션(도시되지 아니함)을 실행하여 디스플레이 유닛(151)에 표시할 수 있다.
터치 패널 컨트롤러(도시되지 아니함)는 하나 또는 복수의 터치 패널 컨트롤러(도시되지 아니함)를 포함할 수 있다. 촬영 장치(100)의 성능 또는 구조에 대응하여 터치 패널 컨트롤러(도시되지 아니함) 및/또는 디스플레이 컨트롤러(도시되지 아니함)는 제어 유닛에 포함될 수도 있다.
촬영 장치(100)는 터치 패널(152) 및 터치 패널 컨트롤러(도시되지 아니함)없이 디스플레이 유닛(151)만 가질 수 있다. 촬영 장치(100)는 사용자의 터치를 검출할 수 없다.
입/출력 유닛(160)은 제어 유닛의 제어에 의해 촬영 장치(100)의 외부에서부터 콘텐트(예를 들어, 이미지, 동영상, 음성, 음악, 데이터(예를 들어, 재생 명령)) 등을 수신할 수 있다. 입/출력 유닛(160)은 버튼(161), 모드 다이얼(162), 마이크(163), 스피커(164), HDMI 입력 포트(High-Definition Multimedia Interface port, 165), 및 USB 입력 잭(jack, 164)를 포함할 수 있다. 또한, 입/출력 유닛(160)은 버튼(161), 모드 다이얼(162), 마이크(163), 스피커(164), HDMI 입력 포트(165), 및 USB 입력 잭(jack, 164)의 조합을 포함할 수 있다.
버튼(161)은 촬영 장치(100)의 기능을 실행하거나 설정을 변경할 수 있다. 예를 들어, 버튼(161)은 전원 스위치(power switch, 161a), 셔터 버튼(shutter button, 161b), 동영상 촬영 버튼(video recording button, 161c), 네비게이션 버튼(161d), 입력 버튼(ok button, 161e), 메뉴 버튼(menu button, 161f), 재생 버튼(playback button, 161h), 삭제 버튼(delete/custom button, 161i) 및 기능 버튼(Fn button, 161g)를 포함할 수 있다. 전원 스위치(161a)는 On/Off 전원 버튼(도시되지 아니함)을 포함할 수 있다.
모드 다이얼(mode dial, 162)은 촬영 장치(100)의 촬영 모드(예를 들어, 프로그램 우선 모드, 셔터 우선 모드 등)을 변경할 수 있다. 촬영 장치(100)는 제어 유닛의 제어에 의해 사용자에 의해 선택된 촬영 모드에 의해 스틸 이미지 또는 비디오를 촬영할 수 있다.
마이크(163)는 사용자의 발화(utterance)된 음성을 수신한다. 마이크(163)는 수신된 음성을 오디오 코덱을 이용하여 전기 신호로 변환하여 제어 유닛으로 출력할 수 있다. 사용자 음성은 예를 들어, 촬영 장치(100)의 메뉴 또는 기능에 대응되는 음성을 포함할 수 있다. 제어 유닛은 수신된 음성을 이용하여 촬영 장치(100)의 기능 및/또는 설정을 제어할 수 있다. 마이크(163)의 인식 범위는 마이크(163)에서부터 사용자 위치까지 4 m 이내를 권장하며, 마이크(163)의 인식 범위는 사용자 목소리의 크기와 주변 환경(예를 들어, 스피커 소리, 주변 소음)에 대응하여 달라질 수 있다.
마이크(163)는 촬영 장치(100)와 일체형 또는 분리될 수 있다. 분리된 마이크(도시되지 아니함)는 통신 유닛(120) 또는 입/출력 유닛(160)을 통해 촬영 장치(100)와 전기적으로 연결될 수 있다.
스피커(164)는 제어 유닛의 제어에 의해 마이크(163)을 통해 수신된 오디오(예를 들어, 음성, 사운드, 오디오 파일, 뮤직 파일)를 오디오 코덱을 이용하여 출력한다. 스피커(164)은 통신 유닛(120) 또는 입/출력 유닛(160)을 통해 입력되는 오디오를 출력할 수 있다. 또한, 스피커(164)는 제어 유닛의 제어에 의해 저장 유닛(170)에 저장된 오디오를 출력할 수 있다. 스피커(164)는 헤드폰 출력 단자(도시되지 아니함) 또는 S/PDIF 출력 단자(도시되지 아니함) 중 적어도 하나를 포함할 수 있다.
본 발명의 실시예에 따라 스피커(164)는 제어 유닛의 제어에 따라 오브젝트 영역의 확대에 대응되는 청각 피드백(예를 들어, 오디오 파일 등)을 출력할 수 있다.
HDMI 입력 포트(165)는 제어 유닛의 제어에 의해 HDMI 입력 포트(165)에 연결 가능한 외부 장치(예를 들어, 디스플레이 장치)와 데이터를 송/수신할 수 있다. 예를 들어, 디스플레이 장치는 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 모니터, 고정 곡률(curvature)인 화면을 가지는 커브드(curved) TV, 고정 곡률인 화면을 가지는 플렉시블(flexible) TV, 고정 곡률인 화면을 가지는 벤디드(bended) TV, 및/또는 수신되는 사용자 입력에 의해 현재 화면의 곡률을 변경가능한 곡률 가변형 TV 등으로 구현될 수 있으나, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
USB 입력 잭(166)는 제어 유닛의 제어에 의해 USB 입력 잭(166)에 연결 가능한 외부 장치와 데이터를 송/수신할 수 있다.
저장 유닛(170)은 제어 유닛의 제어에 의해 촬영 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 컨트롤 메뉴, 프로그램 또는 어플리케이션을 저장할 수 있다. 저장 유닛(170)은 통신 유닛(120), 이미지 센서(130), 셔터(135), 센서 유닛(140), 터치 스크린(150), 입/출력 유닛(160), 및 전원 유닛(190)의 구동에 대응되는 입력/출력되는 신호 또는 데이터를 저장할 수 있다. 또한, 저장 유닛(170)은 촬영 장치(100) 및 제어 유닛의 제어를 위한 제어 프로그램, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
본 발명의 실시예에서 “저장 유닛”이라는 용어는 저장 유닛(170), 제어 유닛의 플래시 메모리(112), 및/또는 램(113)을 포함한다.
저장 유닛은 촬영 장치(100)에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함할 수 있다. 또한, 저장 유닛은 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
저장 유닛은 도시되지 아니한 방송 통신 제어 모듈, 카메라 제어 모듈, 음성 인식 모듈, 모션 인식 모듈, 볼륨 제어 모듈, 디스플레이 제어 모듈, 오디오 제어 모듈, 입/출력 제어 모듈, 전원 제어 모듈, 음성 데이터베이스(DB), 또는 모션 데이터베이스(DB)을 포함할 수 있다. 저장 유닛의 도시되지 아니한 모듈들 및 데이터 베이스는 촬영 장치(100)에서 통신 제어 기능, 카메라 기능, 음성 인식 기능, 모션 인식 기능, 볼륨 제어 모듈, 디스플레이 제어 기능, 오디오 제어 기능, 외부 입력 제어 기능, 또는 전원 제어 기능을 수행하기 위하여 소프트웨어 형태로 구현될 수 있다. 제어 유닛은 저장 유닛에 저장된 이들 소프트웨어를 이용하여 각각의 기능을 수행할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 촬영 장치(100)에서 촬영된 스틸 이미지, 비디오 및/또는 부가 정보를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 휴대 장치(100)의 터치 스크린(150)에 표시되는 비디오 목록에 대응되는 스틸 이미지 및/또는 비디오를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 비디오 촬영 버튼이 선택(예를 들어, 눌림)에 대응되는 선택 정보를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 제1 내지 제4 터치에 대응되는 각 터치 위치 정보를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 제2 오브젝트 영역의 확대에 대응되는 시각 피드백 및/또는 청각 피드백을 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 렌즈(180)에서 수신된 렌즈 정보를 저장할 수 있다.
저장 유닛은 제어 유닛의 제어에 의해 본 발명의 실시예를 위한 다양한 정보 및 신호를 저장할 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다. .
전원 유닛(175)은 제어 유닛의 제어에 의해 촬영 장치(100) 내부의 구성 요소들(120 내지 180)에게 외부의 전원 소스에서부터 입력되는 전원을 공급한다. 또한, 전원 유닛(175)은 제어 유닛의 제어에 의해 외부의 전원 소스에서부터 입력되는 전원을 배터리(176)에 공급하여 충전할 수 있다.
렌즈 유닛(180)는 입사되는 광(예를 들어, 피사체)을 이미지 센서(130)으로 집광한다. 렌즈 유닛(180)는 렌즈 유닛(18)을 제어하는 렌즈 컨트롤러(도시되지 아니함), 메모리(도시되지 아니함), 조리개(도시되지 아니함), 줌 및 포커스를 위한 하나 또는 복수의 렌즈군(도시되지 아니함), 렌즈군(도시되지 아니함)을 광축 방향으로 이동하는 액추에이터(도시되지 아니함), 광학식 손 떨림 보정(Optical Image, Stabilization: OIS) 모듈(도시되지 아니함)을 포함할 수 있다. 메모리(도시되지 아니함)는 렌즈 컨트롤러(도시되지 아니함)의 제어에 의해 촬영 장치(100)에서 수신된 촬영 장치(100)의 관련 정보를 저장할 수 있다.
렌즈 마운트(185)를 통해 렌즈(180)와 촬영 장치(100)가 결합된다. 렌즈(180)는 렌즈 마운트(185)를 통해 제어 유닛과 전기적으로 연결된다. 렌즈 마운트(185)를 통해 렌즈(180)의 메모리(도시되지 아니함)에 저장된 렌즈 정보는 제어 유닛의 제어에 의해 촬영 장치(100)로 전송된다. 또한, 렌즈(180)의 컨트롤러(도시되지 아니함)는 메모리(도시되지 아니함)에 저장된 렌즈 정보를 촬영 장치(100)로 전송할 수 있다. 예를 들어, 렌즈 정보는 렌즈(180)의 식별자, 모델명, 렌즈의 구경, 줌 상태 정보, 조리개 정보, 광학식 손 떨림 보정 정보, 또는 포커스 정보 등을 포함할 수 있다.
또한, 렌즈 마운트(185)를 통해 촬영 장치(100)의 저장 유닛에 저장된 촬영 장치(100)의 정보(예를 들어, 제조사, 식별자 등)를 렌즈(180)로 전송될 수 있다.
도 2에서, 촬영 장치(100)는 렌즈 마운트(185)를 통해 렌즈 유닛(180)을 결합할 수 있으나, 이에 한정되지 않는다. 예를 들어, 촬영 장치(100)는 렌즈 유닛(180)과 일체형일 수 있다. 촬영 장치(100) 및 렌즈 유닛(180)이 일체형인 경우, 렌즈 유닛(180)는 렌즈 유닛(180)의 구성 요소(예를 들어, 렌즈 컨트롤러, 메모리 등) 중 일부 구성 요소가 추가되거나 삭제될 수 있다.
또한, 촬영 장치(100)는 GPS 유닛(도시되지 아니함)을 포함할 수 있다. GPS 유닛(도시되지 아니함)은 지구 궤도상에 있는 복수의 GPS 위성(도시되지 아니함)에서부터 주기적으로 정보(예를 들어, 휴대 장치(100)에서 수신가능한 GPS위성의 정확한 위치 정보와 시간 정보)를 수신한다. 촬영 장치(100)는 복수의 GPS 위성에서부터 수신되는 정보를 이용하여 촬영 장치(100)의 위치, 이동 속도 또는 시간을 알 수 있다.
도 1 및 도 2의 촬영 장치(100)에 도시된 구성 요소들(예를 들어, 110 내지 176)은 촬영 장치(100)의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 위치(예를 들어, 110 내지 176)는 촬영 장치(100)의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 3a은 본 발명의 실시예에 따른 촬영 장치의 동영상 생성방법을 나타내는 개략적인 순서도이다.
도 4a 내지 도 4h는 본 발명의 실시예에 따른 촬영 장치의 동영상 생성방법의 예를 나타내는 도면이다.
도 5a 내지 도 8b는 본 발명의 다른 실시예에 따른 촬영 장치의 동영상 생성방법의 예를 나타내는 도면이다.
도 3a의 단계(S301)에서, 비디오 촬영 버튼의 선택이 수신된다.
도 4a를 참조하면, 사용자에 의해 촬영 장치(100)의 전원 스위치(161a)가 온(On) 위치로 이동하는 경우, 촬영 장치(100)에 전원이 공급된다. 전원 공급에 의해 촬영 장치(100)의 터치 스크린(150)도 활성화된다. 사용자에 의해 촬영 장치(100)가 촬영 대상인 피사체(object)를 향하는 경우, 터치 스크린(150)에 촬영 대상인 피사체(object)를 포함하는 연속적인 라이브 뷰(200x)가 표시된다.
도 4b를 참조하면, 사용자의 터치(201)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려진다. 촬영 장치(100)는 렌즈(180), 이미지 센서(130) 및/또는 제어 유닛을 이용하여 라이브 뷰(200x)를 4K 해상도로 촬영할 수 있다. 제어 유닛은 입력되는 라이브 뷰(200x)에 대해 이미지 처리(image processing)을 할 수 있다. 제어 유닛은 이미지 프로세싱 된 비디오(200)를 스케일링(scaling)하여 터치 스크린(150)에 표시한다. 또한, 제어 유닛은 터치(201)가 검출되는 시점부터 촬영되는 라이브 뷰(200x)에 대응되는 4K 해상도 비디오(200)를 저장 유닛에 저장 또는 임시 저장할 수 있다.
촬영 장치(100)는 Full HD 해상도의 약 4배(예를 들어, 4000 전후 X 2000 픽셀 전후)인 UHD(Ultra High Definition) 해상도를 가지는 스틸 이미지 및/또는 비디오를 촬영할 수 있다. UHD 해상도는 4096 X 2160 픽셀, 또는 3840 X 2160 픽셀을 포함할 수 있다.
촬영 장치(100)는 UHD 해상도의 약 4배(예를 들어, 8000 전후 X 4000 픽셀 전후)인 8K 해상도를 가지는 스틸 이미지 및/또는 비디오를 촬영할 수 있다. 8K 해상도는 8192 X 4320 픽셀, 또는 768 X 4320 픽셀을 포함할 수 있다. FHD 해상도, 4K 해상도 또는 8K 해상도는 촬영 장치(100)가 촬영 가능한 해상도 중 하나이며, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
저장 유닛은 제어 유닛의 제어에 의해 비디오 촬영 버튼의 선택(예를 들어 눌림)에 대응되는 버튼 선택 정보(예를 들어, 버튼 이름, 버튼 선택 시간 등)를 저장할 수 있다. 제어 유닛은 저장되는 선택 정보를 이용하여 비디오 촬영 시작 시간을 터치 스크린(150)에 표시할 수도 있다.
도 5a 내지 도 5c를 참조하면, 본 발명의 다른 실시예에 따른 비디오 생성방법의 트리거 예를 나타낸다.
도 4b의 경우, 제어 유닛은 결정된 설정(예를 들어, 비디오 촬영 버튼(161c)를 누르면 선택된 오브젝트를 확대 및 추적하는 비디오 촬영)에 따라 비디오(200)을 촬영할 수 있다. 비디오 촬영 중 오브젝트(202)에서 사용자 터치(203)가 검출되는 경우, 제어 유닛은 터치(203)이 검출된 오브젝트(202)를 포함하는 오브젝트 영역(210)을 확대할 수 있다.
도 5a를 참조하면, 비디오 촬영 버튼(161c)은 비디오 모드에 대응되는 비디오 모드 스위치(161k)를 더 포함할 수 있다. 비디오 모드 스위치(161k)의 돌기는 제1 위치(161k1)와 제2 위치(161k2)사이를 이동할 수 있다. 비디오 모드 스위치(161k)가 제1 위치(161k1)에 있는 경우, 제어 유닛은 일반 비디오 모드(예를 들어, 선택된 오브젝트를 확대 및 추적하는 비디오 촬영이 불가능)로 비디오 촬영을 한다. 또한, 비디오 모드 스위치(161k)가 제2 위치(161k2)에 있는 경우, 제어 유닛은 트랙킹 비디오 모드(예를 들어, 선택된 오브젝트를 확대 및 추적하는 비디오 촬영이 가능)로 비디오 촬영을 한다.
사용자는 비디오 모드 스위치(161k)를 이용하여 먼저 비디오 모드를 선택하고, 비디오 촬영 버튼(161c)를 누를 수 있다. 또한, 사용자는 비디오 촬영 버튼(161c)을 먼저 누르고, 비디오 모드 스위치(161k)에서 비디오 모드를 선택할 수도 있다.
비디오 촬영 버튼(161c)의 외경은 비디오 모드 스위치(161k)의 외경보다 짧다.
도 5b를 참조하면, 사용자의 터치(201)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려지는 경우, 화면에 비디오 모드에 대응되는 팝업(205)가 표시된다. 비디오 모드에 대응되는 팝업(205)은 일반 비디오 촬영(205a) 및 트랙킹 비디오 촬영(205b)을 포함할 수 있다. 사용자에 의해 팝업(205) 중에서 트랙킹 비디오 촬영(205b)이 선택되는 경우, 제어 유닛은 트랙킹 비디오 모드로 비디오 촬영을 할 수 있다. 사용자에 의해 팝업(205) 중에서 비디오 촬영(205a)이 선택되는 경우, 제어 유닛은 일반 비디오 모드로 일반 비디오 촬영을 할 수 있다. 또한, 촬영 장치(100)가 지원가능한 비디오 모드가 더 있는 경우, 표시되는 팝업(205)의 개수는 변경될 수 있다.
도 5c를 참조하면, 사용자의 터치(201)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려지는 경우, 촬영 장치(100)는 일반 비디오 모드로 비디오 촬영을 하도록 설정되어 있다. 비디오가 표시되는 화면에서, 사용자에 의해 오브젝트(202)에서 터치의 연속적인 움직임이 입력될 수 있다.
제어 유닛은 터치 스크린(150) 및 터치스크린 컨트롤러(도시되지 아니함)를 이용하여 터치 스크린(150)에 접촉하는 터치(203)의 연속적인 움직임을 검출할 수 있다. 터치스크린(150)에 접촉하는 터치 제스처는 하나 또는 복수의 터치 제시처일 수 있다.
하나의 터치(203)의 연속적인 움직임은 최초 터치(203)의 검출 위치(203a)에서부터 최후 터치(204)의 검출 위치(204a)까지 이동을 포함한다. 또한, 하나의 터치(203)의 연속적인 움직임은 최초 터치(203)의 검출 위치(203a)에서부터 최후 터치(204)의 검출 위치(204a)까지 연속적으로 터치 스크린(150)과의 접촉을 유지하는 것을 의미한다. 하나의 터치(203)의 연속적인 움직임은 최후 터치(204)의 검출 위치(204a)에서 터치 스크린(150)과 분리된다.
도 5c를 참조하면, 하나의 터치(203)의 연속적인 움직임 터치 제스처 중 플릭(flick), 스와이프(swipe), 더블 탭(double tap) 또는 회전(rotate)을 포함할 수 있다.
도 5a 내지 도 5c뿐만 아니라, 본 발명의 다른 실시예에 따른 비디오 생성방법의 트리거 예를 나타낸다. 예를 들어, 제어 유닛은 입력되는 사용자의 음성을 수신하는 마이크(163) 및 음성 인식 모듈(도시되지 아니함)을 이용하여 일반 비디오 모드를 트랙킹 비디오 모드로 변경할 수 있다. 제어 유닛은 변경된 트랙킹 비디오 모드로 비디오를 촬영할 수도 있다.
도 3a의 단계(S302)에서, 4K 비디오가 화면에 표시된다.
도 4b 및 도 4c를 참조하면, 제어 유닛의 제어에 의해 촬영 장치(100)의 화면에 비디오(200)가 표시된다. 비디오(200)는 제어 유닛의 제어에 의해 화면 크기에 대응되게 이미지 처리되어 표시된다. 비디오는 초당 60 프레임으로 표시되거나 또는 초당 30 프레임으로 표시될 수 있다. 표시되는 비디오(200)는 촬영 장치(100)의 화면 크기(예를 들어, 화면의 대각선 크기)에 대응되게 크기가 다양하게 표시될 수 있다. 표시되는 비디오(200)는 다양한 오브젝트(예를 들어, 레이싱중인 자동차들, 트랙 등)를 포함할 수 있다. 비디오(200)에 표시되는 오브젝트는 사용자의 터치에 의해 선택될 수 있다. 비디오(200)에 표시되는 오브젝트는 움직이는 오브젝트일 수 있다. 또한, 비디오(200)에 표시되는 오브젝트는 촬영 장치의 버튼(예를 들어, 161d 및 161e, 도1 참조)에 의해 선택될 수도 있다.
도 3a의 단계(S303)에서, 화면에 표시되는 오브젝트에서 사용자의 터치가 검출된다.
도 4c를 참조하면, 화면에 표시되는 복수의 오브젝트(예를 들어, 202 내지 200e) 중에서 오브젝트(202)가 사용자(또는 입력 유닛)에 의해 터치된다. 제어 유닛은 터치 스크린(150) 및 터치 스크린 컨트롤러(도시되지 아니함)를 통해 화면에서 제1 터치(203)를 검출한다. 제어 유닛은 터치 스크린 컨트롤러(도시되지 아니함)로부터 제1 터치(203)에 대응되는 제1 위치 정보(예를 들어, 203a에 대응되는 X1과 Y1좌표)를 수신한다.
또한, 화면에 표시되는 오브젝트(202)에서 사용자(또는 입력 유닛)의 호버링이 검출될 수 있다. 제어 유닛은 터치 스크린(150) 및 터치 스크린 컨트롤러(도시되지 아니함)를 통해 화면에서 호버링을 검출할 수 있다. 제어 유닛은 터치 스크린 컨트롤러(도시되지 아니함)로부터 검출된 호버링에 대응되는 제11 위치 정보(예를 들어, X11과 Y11좌표)를 수신할 수 있다.
제어 유닛은 수신된 제1 위치 정보에 포함된 터치 스크린(150)상의 터치 위치(203a), 터치 검출 시간(예를 들어, 14시 17분) 및 터치에 대응되는 터치 부가 정보(예를 들어, 터치 압력 등)를 저장 유닛에 저장할 수 있다. 또한, 제어 유닛은 수신된 제11 위치 정보에 포함된 터치 스크린(150)상의 호버링 위치, 터치 검출 시간(예를 들어, 14시 18분) 및 터치에 대응되는 호버링 부가 정보(예를 들어, 호버링 높이 등)를 저장 유닛에 저장할 수 있다.
터치 스크린(150)에 접촉되는 터치(203)는 예를 들어, 엄지를 포함하는 손가락들 중 하나 또는 터치가능한 입력 유닛에 의해 발생할 수 있다. 제어 유닛에 의해 검출가능한 터치의 개수는 촬영 장치(100)의 터치 스크린(150) 및/또는 터치 스크린 컨트롤러(도시되지 아니함)의 성능 또는 구조에 대응하여 변경될 수 있음은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 수 있는 것이다.
도 3a의 단계(S304)에서, 터치에 대응되는 오브젝트가 구별되게 화면에 표시된다.
도 4d 및 도 6을 참조하면, 터치(203)가 검출된 오브젝트(202)가 다른 오브젝트(202a 내지 202e)와 구별되게 표시된다. 오브젝트(202)와 다른 오브젝트의 구별은 예를 들어, 오브젝트(202)의 하이라이트(highlighting) 표시, 오브젝트(202)의 명멸(glimmering) 표시, 오브젝트(202)의 에지를 굵게 표시, 오브젝트(202)의 에지에서 이격(예를 들어, 5 ㎜ 이내)된 라인(202l)을 표시, 오브젝트(202)의 콘트라스트를 크게, 오브젝트(202)의 반전(turnover indication) 표시, 오브젝트(202)에 밑줄(underlined) 표시 및/또는 오브젝트(202)를 다른 컬러로 표시하는 것을 포함할 수 있다. 오브젝트(202)와 다른 오브젝트(202a 내지 202e)의 구별은 제어 유닛의 제어에 의해 한정된 영역(예를 들어, 오브젝트(202)의 에지를 기준으로 10 ㎜ 이내)에서 표시될 수 있다. 상술된 오브젝트(202)를 다른 오브젝트(202a 내지 202e)와 구별되게 표시되는 방법들은 이에 한정되지 않고, 다양하게 구별하여 표시를 할 수 있음은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 수 있는 것이다.
도 3a의 단계(S305)에서, 터치가 검출된 오브젝트가 확대된다.
도 4e를 참조하면, 제어 유닛의 제어에 의해 터치가 검출된 오브젝트(202)를 포함하는 오브젝트 영역(210)은 확대된다. 오브젝트(202)가 다른 오브젝트(202a 내지 202e)와 구별되게 표시되는 설정된 시간(예를 들어, 500㎳, 제조사 또는 사용자에 의해 변경 가능)이 경과되는 경우, 오브젝트 영역(210)은 제어 유닛의 제어에 의해 점진적으로 결정된 크기(예를 들어, 화면 크기)에 대응되게 확대될 수 있다.
제어 유닛은 현재 위치에서의 오브젝트 영역(210)을 결정된 크기(예를 들어, 800 X 480 pixel)로의 확대되는 시각 피드백(210 내지 210d)을 표시할 수 있다. 시각 피드백(210 내지 210d)은 오브젝트 영역(210)을 기준으로 하는 현재 크기(210)에서부터 결정된 크기(210d)로 확대될 수 있다. 시각 피드백(210 내지 210d)은 오브젝트 영역(210)의 현재 크기에서부터 결정된 크기(210d)까지 등속(constant velocity)으로 점진적으로 확대될 수 있다. 시각 피드백(210 내지 210d)은 오브젝트 영역(210)의 중심 위치를 기준으로 결정된 크기(210d)로 확대될 수 있다.
오브젝트 영역(210)의 중심 위치가 화면의 중심 위치가 아닌 경우, 오브젝트 영역(210)의 꼭지점을 기준으로 하는 시각 피드백(210 내지 210d)의 확대율은 오브젝트 영역(210)의 꼭지점에 따라 다를 수 있다. 오브젝트 영역(210)의 꼭지점에서부터 대응되는 화면의 꼭지점까지 가상의 선을 연결하는 경우, 점진적으로 확대되는 오브젝트 영역(210)의 꼭지점 위치는 상호 다를 수 있다. 예를 들어, 화면의 중심 위치에서부터 멀리 이격된 오브젝트 영역(210)의 꼭지점의 위치는 화면의 중심 위치에서부터 가깝게 이격된 오브젝트 영역(210)의 꼭지점의 위치와 비교하여 대응되는 화면의 꼭지점에서 더 이격될 수 있다.
본 발명의 다른 실시예에 따라 제어 유닛은 현재 위치에서의 오브젝트 영역(210)을 화면의 중심 위치로 이동할 수 있다. 제어 유닛은 화면의 중심 위치로 이동된 오브젝트 영역(210)을 결정된 크기(예를 들어, 800 X 480 pixel)로 등속으로 점진적으로 확대되는 시각 피드백(도시되지 아니함)을 표시할 수 있다. 오브젝트 영역(210)의 중심 위치가 화면의 중심 위치와 동일한 경우, 오브젝트 영역(210)의 꼭지점을 기준으로 하는 시각 피드백(210 내지 210d)의 확대율은 동일할 수 있다.
본 발명의 실시예에서, 촬영되는 비디오(200)는 4K 해상도 또는 그 이상의 해상도를 가지는 비디오일 수 있다. 4K 해상도 비디오에서 터치(203)가 검출된 오브젝트(202)를 확대하는 경우, 크롭(crop)된 오브젝트 영역(210)의 해상도는 4K 해상도와 HD 해상도 사이일 수 있다. 예를 들어, 4K 해상도 비디오에서 터치(203)가 검출된 오브젝트(202)의 오브젝트 영역(210)의 크기가 화면 크기의 1/4인 경우, 화면 크기로 확대된 오브젝트 영역(210)의 해상도는 Full HD해상도 일 수 있다. 화각(angle of view)의 관점에서, 화면 크기로 확대된 오브젝트 영역(210)은 확대된 길이 기준으로 2배 줌(zoom)의 효과일 수 있다.
본 발명의 다른 실시예에 따라 제어 유닛은 오브젝트 영역(210)의 확대에 대응되는 청각 피드백을 제공할 수 있다. 제어 유닛은 오브젝트 영역(210)의 확대에 대응되는 청각 피드백(예를 들어, 오디오 파일 등)을 스피커(164)를 통해 출력할 수 있다.
제어 유닛은 오브젝트 영역(210)의 확대에 대응되는 시각 피드백 및 청각 피드백 중 적어도 하나의 피드백을 선택적으로 제공할 수 있다.
도 7a 및 도 7b를 참조하면, 사용자의 터치에 의해 오브젝트 영역(210)의 크기를 변경할 수 있다. 제어 유닛은 터치 스크린(150) 및 터치 스크린 컨트롤러(도시되지 아니함)을 이용하여 에지(210k)에서의 터치 위치(205a)를 검출할 수 있다.
오브젝트 영역(210)의 에지(210k)에서 터치(205)가 검출되는 경우, 제어 유닛은 오브젝트 영역(210)의 에지(210k) 상에 마크(예를 들어, □)를 표시한다. 또한, 사용자의 터치(205)가 오브젝트 영역(210)의 에지(210k)에 계속 접촉중인 경우, 제어 유닛은 오브젝트 영역(210)의 에지(210k) 상에 마크(예를 들어, □)를 표시할 수 있다. 오브젝트 영역(210)의 에지(210) 상에 마크가 표시되는 경우, 사용자의 입력에 의해 오브젝트 영역(210)의 크기가 변경할 수 있다는 것을 의미한다.
사용자에 의해 입력되는 오브젝트 영역(210)의 에지(210k)에서부터 터치(205)의 연속적인 움직임(예를 들어, 최초 터치(205)의 검출 위치(205a)에서부터 최후 터치(206)의 검출 위치 (20a)까지 이동)이 검출될 수 있다. 하나의 터치(205)의 연속적인 움직임은 최후 터치(206)의 검출 위치 (206a)에서 터치 스크린(150)과 분리된다. 최후 터치(206)의 검출 위치 (206a)에서 터치의 연속적인 움직임이 분리되는 경우, 제어 유닛은 오브젝트 영역(210)의 에지(210k)를 확대된 에지(210l)로 변경할 수 있다. 제어 유닛은 확대된 에지(210l)를 화면에 확대하여 표시할 수 있다. 또한, 제어 유닛은 확대된 에지(210l)를 기준으로 촬영 해상도를 조정할 수도 있다. 제어 유닛은 조정된 촬영 해상도의 비디오를 저장할 수도 있다.
도 3a의 단계(S306)에서, 오브젝트 트랙킹 및 확대된 오브젝트 영역이 표시된다.
도 4f를 참조하면, 제어 유닛의 제어에 의해 오브젝트 영역(210)이 확대되어 화면에 표시된다(200y). 제어 유닛은 확대된 오브젝트 영역(200y)의 오브젝트(202)를 추적(tracking)할 수 있다. 제어 유닛은 확대된 오브젝트 영역(200y)의 오브젝트(202)의 추적을 추가 비디오 촬영 버튼(161c)이 선택될 때까지 지속할 수 있다. 제어 유닛은 확대된 오브젝트 영역(200y)의 오브젝트(202)를 추가 비디오 촬영 버튼(161c)이 선택될 때까지 촬영 및 저장을 할 수 있다.
이동하는 오브젝트(202)에 대응하여 촬영 장치(100)가 이동하는 경우, 제어 유닛은 오브젝트 영역(200y)의 오브젝트(202)를 추적하여 화면에 표시할 수 있다. 또한, 제어 유닛은 이동하는 오브젝트(202)를 화면 중심 영역에 표시할 수도 있다.
제어 유닛은 확대된 오브젝트(200y)의 오브젝트(202)에 대해 자동 초점 기능 및 자동 노출 기능을 수행할 수 있다. 촬영 장치(100)에서, 도 4b에서의 자동 초점 및 자동 노출의 대상인 피사체와 도 4f에서의 자동 초점 및 자동 노출의 대상인 피사체가 다를 수 있다. 제어 유닛은 확대된 오브젝트(200y)의 오브젝트(202)의 밝기와 초점을 조정할 수 있다.
또한, 제어 유닛은 확대된 오브젝트(200y)에 포함된 오브젝트(202)에 대해 자동 초점 기능 및 자동 노출 기능뿐만 아니라 다양한 이미지 프로세싱(예를 들어, 컬러 인터폴레이션 기능, 컬러 보상 기능, 컬러 공간 변환 기능, 감마 보상 기능)을 적용할 수도 있다.
오브젝트 추적 방법은 다양한 알고리즘이 있으며 예를 들어, 포인트 추적 방법(point tracking), 커널 트랙킹 방법(kernel tracking) 및 실루엣 트랙킹 방법(silhouette tracking)을 포함할 수 있다. 포인트 추적 방법, 커널 트랙킹 방법 및 실루엣 트랙킹 방법도 더 세분화되어 다양하다.
도 4f에서 확대되어 표시되는 오브젝트(202)는 도 4d 및 도 4e와 다르게 다른 오브젝트들과 구별되게 표시되지 않는다. 예를 들어, 도 4d 및 도 4e에서 오브젝트(202)의 에지가 굵게 표시되는 경우, 도 4f에서의 오브젝트(202)는 도 4b 및 도 4cc처럼 에지가 원래대로 표시될 수 있다.
도 3a의 단계(S307)에서, 비디오가 저장된다.
도 4f를 참조하면, 사용자의 터치(211)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려진다. 제어 유닛은 눌려진 비디오 촬영 버튼(161c)에 대응하여 제1 터치(201)가 검출된 시점부터 제3 터치(211)가 검출된 시점까지의 비디오(예를 들어, 도 4b에서부터 도4f까지의 비디오)를 저장 유닛에 저장할 수 있다. 또한, 제어 유닛은 눌려진 비디오 촬영 버튼(161c)에 대응하여 제2 터치(203)가 검출된 시점부터 제3 터치(211)가 검출된 시점까지의 비디오(예를 들어, 도 4c에서부터 도4f까지의 비디오)를 저장 유닛에 저장할 수 있다.
저장되는 비디오(200)에 대응되는 부가 정보(예를 들어, 파일 이름, 파일 크기, 파일 해상도, 파일 생성 시가/날짜, 노출 시간, F값, ISO 감도, 압축률, 셔터 스피드 값, 초점 거리, 측광 방식, 렌즈의 최대 밝기, 플래시, 비디오에 대응되는 설명 등)을 메타 데이터로 저장할 수 있다. 또한, 저장된 스틸 이미지에도 유사한 부가 정보를 가지는 메타 데이터로 저장할 수 있다. 촬영 장치(100)에 따라 저장되는 부가 정보가 추가, 삭제 또는 변경될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 3a의 단계(S307)에서, 제어 유닛은 비디오(200)를 저장하는 경우, 촬영 장치의 비디오 생성방법은 종료된다.
도 3a의 단계(S305)로 되돌아가서, 터치가 검출된 오브젝트가 확대 및 PIP(Picture in Picture)인 경우, 단계(S308)로 진행한다.
도 3a의 단계(S308)에서, 터치가 검출된 오브젝트가 확대 및 PIP로 표시된다.
도 4g를 참조하면, 제어 유닛의 제어에 의해 터치가 검출된 오브젝트(202)를 포함하는 오브젝트 영역은 확대되어 표시되고(200y), 오브젝트 영역(210)의 확대된 화면(200y) 모서리 중 하나에 축소된 PIP(Picture in Picture) 화면(200a)을 표시할 수 있다.
PIP 화면(200a)은 촬영되는 비디오(200)를 스케일링하여 표시되는 화면일 수 있다. PIP 화면(200a)은 오브젝트 영역(210)이 확대된 화면(200y)에 오버레이되어 표시될 수 있다. 또한, 제어 유닛은 투명도(예를 들어, 0 내지 100%의 투명도, transparency)를 가지는 PIP 화면(200a)을 표시할 수 있다.
제어 유닛은 PIP 화면(200a)와 구분되는, 확대된 오브젝트 영역(200y)의 오브젝트(202)를 추적(tracking)할 수 있다. 오브젝트(202)의 이동에 대응하여 촬영 장치(100)가 이동하는 경우, 제어 유닛은 오브젝트 영역(200y)의 오브젝트(202)를 추적하여 화면에 표시할 수 있다. 또한, 제어 유닛은 이동하는 오브젝트(202)를 화면 중심 영역에 표시할 수도 있다.
제어 유닛은 PIP 화면(200a)를 통해 사용자에게 오브젝트 영역(210)의 확대된 화면(200y)의 비디오(200)에서의 현재 위치 및 다른 오브젝트들의 위치 관계를 제공할 수 있다.
또한, 제어 유닛은 사용자의 터치(도시되지 아니함) 또는 설정에 의해 PIP 화면(200a)의 위치를 다른 모서리(200b 내지 200d)로 변경할 수 있다. 예를 들어, 제어 유닛은 사용자의 터치 제스처(예를 들어, 터치 앤 드래그(touch and drag), 도시되지 아니함)에 의해 PIP 화면(200a)을 다른 모서리로 변경할 수 있다. 제어 유닛은 PIP 화면(200a)을 모서리뿐만 아니라 사용자가 터치 제스처를 멈춘 위치(예를 들어, 화면의 중심 영역, 두 모서리(200a 및 200b)의 사이 등)로 이동시킬 수 있다.
PIP 화면(200a)의 이동을 위한 터치 제스처는 터치 앤 드래그뿐만 아니라 다양한 터치 제스처(예를 들어, 플릭, 스와이프, 더블 탭, 멀티 터치 제스처 등)가 적용될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 3a의 단계(S309)에서 오브젝트(302)의 확대 및 PIP 화면의 표시는 도 3a의 단계(S306)에서 오브젝트(302)의 확대와 실질적으로 유사하므로 중복되는 설명을 생략할 수 있다.
도 3a의 단계(S310)에서, 비디오가 저장된다.
도 4h를 참조하면, 사용자의 터치(212)에 의해 촬영 장치(100)의 비디오 촬영 버튼(161c)이 눌려진다. 제어 유닛은 눌려진 비디오 촬영 버튼(161c)에 대응하여 제1 터치(201)가 검출된 시점부터 제4 터치(212)가 검출된 시점까지의 비디오(예를 들어, 도 4b에서부터 도4g까지의 비디오(도 4f는 제외))를 저장 유닛에 저장할 수 있다. 또한, 제어 유닛은 눌려진 비디오 촬영 버튼(161c)에 대응하여 제2 터치(203)가 검출된 시점부터 제4 터치(212)가 검출된 시점까지의 비디오(예를 들어, 도 4c에서부터 도4g까지의 비디오(도 4f는 제외)를 저장 유닛에 저장할 수 있다.
저장되는 비디오(200y+200a)에 대응되는 부가 정보(예를 들어, 파일 이름, 생성 날짜, PIP 화면의 위치, 크기, 비디오에 대응되는 설명 등)을 메타 데이터로 저장할 수 있다.
도 3a의 단계(S310)에서, 제어 유닛은 비디오(200y + 200a)를 저장하는 경우, 촬영 장치의 비디오 생성방법은 종료된다.
도 3b은 본 발명의 다른 실시예에 따른 촬영 장치의 동영상 생성방법을 나타내는 개략적인 순서도이다.
도 3b의 단계(S351)에서, 비디오 목록이 화면에 표시된다.
도 8a를 참조하면, 제어 유닛은 사용자의 입력(도시되지 아니함)에 대응하여 썸네일 크기로 정렬된 비디오 목록(220)을 화면에 표시한다. 예를 들어, 재생 버튼(161h)에서 사용자 입력이 검출되는 경우, 제어 유닛은 비디오 목록(220)을 화면에 표시할 수 있다. 표시되는 비디오 목록(220)은 비디오(221a 내지 221c)뿐만 아니라 스틸 이미지(222a 내지 222l)를 포함할 수 있다.
비디오 목록(220)에 표시되는 스틸 이미지(222a 내지 222l) 또는 비디오(221a 내지 221c)는 저장 유닛(170)에 기저장되어 있다. 또한, 비디오 목록(220)에 표시되는 스틸 이미지(222a 내지 222l) 또는 비디오(221a 내지 221c)는 제어 유닛의 제어에 따라 통신 유닛(120)을 통해 외부 장치로부터 다운로드(download)될 수도 있다.
도 3b의 단계(S352)에서, 비디오 목록에서 비디오의 선택이 수신된다.
도 8b를 참조하면, 비디오 목록(220)에서 비디오(221c)가 사용자에 의해 터치된다. 제어 유닛은 터치 스크린(150) 및 터치 스크린 컨트롤러(도시되지 아니함)를 통해 화면에서 제21 터치(207)를 검출한다. 제어 유닛은 터치 스크린 컨트롤러(도시되지 아니함)로부터 제21 터치(203)에 대응되는 제21 위치 정보(예를 들어, 207a에 대응되는 X21과 Y21좌표)를 수신한다. 또한, 비디오(221c)에서 사용자의 호버링이 검출될 수 있다.
도 3b의 단계(S352)에서의 터치(207)의 검출은 도 3a의 단계(S303)과 실질적으로 동일하므로 중복되는 설명은 생략할 수 있다.
도 3b의 단계(S353 내지 S361)에서의 비디오 생성방법은 도 3a의 단계(S302 내지 S310)에서의 비디오 생성방법과 실질적으로 동일하므로 중복되는 설명은 생략할 수 있다.
본 발명의 예시적 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 예를 들어, 상기 컴퓨터 판독 가능 매체는 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다.
휴대 장치 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당해 분야의 통상의 지식을 가지는 자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 예시적 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 예시적 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 예시적 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구범위뿐 아니라 이 특허 청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (15)

  1. 촬영 장치의 화면에 비디오를 표시하는 단계;
    상기 비디오에 있는 오브젝트에서 사용자 터치를 검출하는 단계; 및,
    상기 검출된 오브젝트를 포함하는 제1 오브젝트 영역을 상기 화면의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하는 단계를 포함하고,
    상기 오브젝트 영역은 상기 비디오에서 크롭되어 확대되는 촬영 장치의 비디오 생성방법.
  2. 제1항에 있어서,
    상기 제2 오브젝트 영역의 해상도는 상기 비디오의 해상도보다 낮은 촬영 장치의 비디오 생성방법.
  3. 제1항에 있어서,
    상기 제1 오브젝트 영역의 크기는 사용자에 의해 변경가능한 촬영 장치의 비디오 생성방법.
  4. 제1항에 있어서,
    상기 화면에 표시되는 상기 비디오는 촬영 장치의 비디오 촬영 버튼의 눌림 및 상기 화면에 표시되는 비디오 목록에서의 선택 중 하나에 의해 표시되는 촬영 장치의 비디오 생성방법.
  5. 제1항에 있어서,
    확대된 상기 제2 오브젝트 영역에 포함된 상기 오브젝트를 추적하여 표시하는 단계를 더 포함하는 촬영 장치의 비디오 생성방법.
  6. 제5항에 있어서,
    상기 제2 오브젝트 영역에 포함된 상기 오브젝트에 대응되는 자동 노출 기능 및 자동 초점 기능을 수행하는 촬영 장치의 비디오 생성방법.
  7. 제5항에 있어서,
    상기 추적된 오브젝트를 포함하는 확대된 상기 제2 오브젝트 영역을 저장하는 단계를 더 포함하는 촬영 장치의 비디오 생성방법.
  8. 제5항에 있어서,
    상기 제2 오브젝트 영역에 상기 비디오를 스케일링한 PIP(picture in picture) 화면을 오버레이로 표시하는 촬영 장치의 비디오 생성방법.
  9. 제1항에 있어서,
    상기 PIP 화면은 상기 화면 내에서 이동가능한 촬영 장치의 비디오 생성방법.
  10. 제1항에 있어서,
    상기 제2 오브젝트 영역으로 확대하여 표시하는 단계에 있어서,
    상기 제2 오브젝트 영역으로의 확대에 대응하여 시각 피드백 및 청각 피드백 중 적어도 하나를 제공하고, 상기 오브젝트를 다른 오브젝트와 구별되게 표시하는 촬영 장치의 비디오 생성방법.
  11. 비디오를 표시하는 터치 스크린; 및,
    상기 터치 스크린을 제어하는 제어 유닛을 포함하고,
    상기 제어 유닛은,
    상기 터치 스크린에 표시되는 비디오의 오브젝트에서 사용자의 터치를 검출하고, 상기 터치에 대응하여 구별되게 표시되는 상기 오브젝트를 포함하는 제1 오브젝트 영역을 상기 터치 스크린의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하고,
    상기 확대된 제2 오브젝트 영역의 해상도는 상기 비디오의 해상도보다 낮은 촬영 장치.
  12. 제11항에 있어서,
    비디오 촬영 버튼을 더 포함하고,
    상기 제어 유닛은 검출된 상기 비디오 촬영 버튼의 눌림에 대응하여 촬영된 상기 비디오를 상기 터치 스크린에 표시되는 촬영 장치.
  13. 제11항에 있어서,
    상기 비디오 촬영 버튼은 상기 비디오 모드를 선택하는 비디오 모드 스위치를 더 포함하고,
    상기 비디오 촬영 버튼의 외경은 상기 비디오 모드 스위치의 외경보다 짧은 촬영 장치.
  14. 제11항에 있어서,
    스피커를 더 포함하고,
    상기 제어 유닛은 상기 제2 오브젝트 영역의 확대에 대응되는 시각 피드백을 상기 터치 스크린에서 제공하거나, 상기 제2 오브젝트 영역의 확대에 대응되는 청각 피드백을 상기 스피커를 통해 제공하는 촬영 장치.
  15. 비디오를 표시하는 터치 스크린; 및,
    상기 터치 스크린을 제어하는 제어 유닛을 포함하고,
    상기 제어 유닛은,
    상기 터치 스크린에 표시되는 비디오의 오브젝트에서 사용자의 터치를 검출하고, 상기 터치에 대응하여 구별되게 표시되는 상기 오브젝트를 포함하는 제1 오브젝트 영역을 상기 터치 스크린의 크기에 대응되게 제2 오브젝트 영역으로 확대하여 표시하고,
    상기 확대된 제2 오브젝트 영역에 자동 초점 및 자동 노출을 적용하는 촬영 장치.
PCT/KR2015/005565 2014-06-03 2015-06-03 촬영 장치 및 촬영 장치의 비디오 생성방법 WO2015186964A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/313,548 US10375312B2 (en) 2014-06-03 2015-06-03 Imaging device and video generation method by imaging device
EP15803556.8A EP3154255B1 (en) 2014-06-03 2015-06-03 Imaging device and video generation method
CN201580029542.4A CN106416223B (zh) 2014-06-03 2015-06-03 成像设备和通过成像设备进行的视频生成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0067293 2014-06-03
KR1020140067293A KR102146858B1 (ko) 2014-06-03 2014-06-03 촬영 장치 및 촬영 장치의 비디오 생성방법

Publications (1)

Publication Number Publication Date
WO2015186964A1 true WO2015186964A1 (ko) 2015-12-10

Family

ID=54766986

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005565 WO2015186964A1 (ko) 2014-06-03 2015-06-03 촬영 장치 및 촬영 장치의 비디오 생성방법

Country Status (5)

Country Link
US (1) US10375312B2 (ko)
EP (1) EP3154255B1 (ko)
KR (1) KR102146858B1 (ko)
CN (1) CN106416223B (ko)
WO (1) WO2015186964A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106375666A (zh) * 2016-09-26 2017-02-01 成都臻识科技发展有限公司 一种基于车牌的自动对焦方法及装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101837871B1 (ko) 2013-07-25 2018-04-19 콘비다 와이어리스, 엘엘씨 종단간 m2m 서비스 계층 세션
US11503314B2 (en) 2016-07-08 2022-11-15 Interdigital Madison Patent Holdings, Sas Systems and methods for region-of-interest tone remapping
EP3520243A2 (en) 2016-11-03 2019-08-07 Convida Wireless, LLC Frame structure in nr
JP6278575B1 (ja) * 2016-11-21 2018-02-14 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
CN110301136B (zh) * 2017-02-17 2023-03-24 交互数字麦迪逊专利控股公司 在流传输视频中进行选择性感兴趣对象缩放的系统和方法
CN111052753A (zh) * 2017-08-30 2020-04-21 Vid拓展公司 跟踪式视频缩放
JP6896181B2 (ja) * 2018-08-31 2021-06-30 富士フイルム株式会社 撮像素子、撮像装置、画像データ処理方法、及びプログラム
EP3858023A1 (en) 2018-09-27 2021-08-04 Convida Wireless, Llc Sub-band operations in unlicensed spectrums of new radio
CN111385607A (zh) * 2018-12-29 2020-07-07 浙江宇视科技有限公司 分辨率的确定方法、装置、存储介质、客户端及服务器
CN111031398A (zh) * 2019-12-10 2020-04-17 维沃移动通信有限公司 一种视频控制方法及电子设备
CN111654622B (zh) * 2020-05-28 2022-10-14 维沃移动通信有限公司 拍摄对焦方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100035385A (ko) * 2008-09-26 2010-04-05 삼성디지털이미징 주식회사 디지털 촬영 장치를 이용한 영상 감시 방법 및 장치
KR20100093955A (ko) * 2009-02-17 2010-08-26 삼성전자주식회사 디지털 영상신호 처리장치에서 이미지확대표시방법
KR20130092360A (ko) * 2012-02-09 2013-08-20 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20130092213A (ko) * 2012-02-10 2013-08-20 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
KR20130092723A (ko) * 2012-02-13 2013-08-21 엘지전자 주식회사 이동 단말기 및 그 제어방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4438332B2 (ja) * 2003-06-27 2010-03-24 カシオ計算機株式会社 電子機器、この電子機器に用いられるモニタ表示方法及びプログラム
JP2005354333A (ja) 2004-06-10 2005-12-22 Casio Comput Co Ltd 画像再生装置およびプログラム
EP1643758B1 (en) 2004-09-30 2013-06-19 Canon Kabushiki Kaisha Image-capturing device, image-processing device, method for controlling image-capturing device, and associated storage medium
JP4719641B2 (ja) * 2006-07-27 2011-07-06 ソニー株式会社 動画像データ提供方法、動画像データ提供方法のプログラム、動画像データ提供方法のプログラムを記録した記録媒体、動画像データ提供装置及び動画像データ提供システム。
KR100817315B1 (ko) * 2006-09-25 2008-03-27 삼성전자주식회사 터치 스크린을 갖는 디지털 방송 수신용 휴대 단말기 및그의 pip 화면 제어 방법
WO2010005968A1 (en) * 2008-07-07 2010-01-14 Rich Products Corporation Method for storage of live crustaceans
KR20100071754A (ko) * 2008-12-19 2010-06-29 삼성전자주식회사 터치와 키조작에 의한 멀티 입력 방식을 이용한 촬영방법 및 이를 적용한 촬영장치
CN102483860B (zh) * 2009-06-10 2015-07-15 鹰图公司 利用3d对象的空间边界的本体过滤
KR101527037B1 (ko) * 2009-06-23 2015-06-16 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP2011029552A (ja) * 2009-07-29 2011-02-10 Renesas Electronics Corp 半導体装置およびその製造方法
WO2011034924A1 (en) 2009-09-15 2011-03-24 Envysion, Inc. Video streaming method and system
US9104809B2 (en) * 2010-03-24 2015-08-11 Fujitsu Limited Facilitating automated validation of a web application
US8874090B2 (en) * 2010-04-07 2014-10-28 Apple Inc. Remote control operations in a video conference
JP2011239104A (ja) 2010-05-07 2011-11-24 Panasonic Corp カメラ装置、拡大表示方法およびプログラム
US8957920B2 (en) * 2010-06-25 2015-02-17 Microsoft Corporation Alternative semantics for zoom operations in a zoomable scene
EP2502858A1 (de) * 2011-03-23 2012-09-26 ABB Schweiz AG Antriebseinheit für eine Gurtförderanlage
KR101822655B1 (ko) 2011-06-21 2018-01-29 삼성전자주식회사 카메라를 이용한 물체 인식 방법 및 이를 위한 카메라 시스템
US8890864B2 (en) 2011-12-12 2014-11-18 Lg Electronics Inc. Mobile terminal and controlling method thereof
US9225891B2 (en) 2012-02-09 2015-12-29 Samsung Electronics Co., Ltd. Display apparatus and method for controlling display apparatus thereof
WO2013132828A1 (ja) * 2012-03-05 2013-09-12 パナソニック株式会社 通信システムおよび中継装置
US8594488B1 (en) 2012-03-13 2013-11-26 Google Inc. Methods and systems for video retargeting using motion saliency
JP2013219556A (ja) * 2012-04-09 2013-10-24 Olympus Imaging Corp 撮像装置
CN104205798B (zh) * 2012-04-09 2017-08-04 索尼公司 显示控制装置、显示控制方法和存储介质
EP2695982A1 (de) * 2012-08-06 2014-02-12 Oskar Dilo Maschinenfabrik KG Vorrichtung und Verfahren zur Vergleichmäßigung oder Profilierung einer Faserflockenmatte
KR101917695B1 (ko) 2012-08-09 2018-11-13 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
EP2801919A1 (en) * 2013-05-10 2014-11-12 LG Electronics, Inc. Mobile terminal and controlling method thereof
US20150085184A1 (en) * 2013-09-25 2015-03-26 Joel Vidal Smartphone and tablet having a side-panel camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100035385A (ko) * 2008-09-26 2010-04-05 삼성디지털이미징 주식회사 디지털 촬영 장치를 이용한 영상 감시 방법 및 장치
KR20100093955A (ko) * 2009-02-17 2010-08-26 삼성전자주식회사 디지털 영상신호 처리장치에서 이미지확대표시방법
KR20130092360A (ko) * 2012-02-09 2013-08-20 삼성전자주식회사 전자 장치 및 그의 제어 방법
KR20130092213A (ko) * 2012-02-10 2013-08-20 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
KR20130092723A (ko) * 2012-02-13 2013-08-21 엘지전자 주식회사 이동 단말기 및 그 제어방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3154255A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106375666A (zh) * 2016-09-26 2017-02-01 成都臻识科技发展有限公司 一种基于车牌的自动对焦方法及装置
CN106375666B (zh) * 2016-09-26 2019-04-16 成都臻识科技发展有限公司 一种基于车牌的自动对焦方法及装置

Also Published As

Publication number Publication date
CN106416223B (zh) 2020-01-31
EP3154255A4 (en) 2018-03-07
KR20150139159A (ko) 2015-12-11
EP3154255A1 (en) 2017-04-12
US20170201686A1 (en) 2017-07-13
EP3154255B1 (en) 2020-02-12
KR102146858B1 (ko) 2020-08-21
CN106416223A (zh) 2017-02-15
US10375312B2 (en) 2019-08-06

Similar Documents

Publication Publication Date Title
WO2015186964A1 (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
WO2017014415A1 (en) Image capturing apparatus and method of operating the same
KR102076771B1 (ko) 다수의 이미지 동시 포착
WO2017119664A1 (en) Display apparatus and control methods thereof
KR102023179B1 (ko) 듀얼 카메라를 포함하는 전자장치에서 듀얼 리코딩 촬영을 위한 방법 및 장치
WO2019035601A1 (en) IMAGE EDITING APPARATUS USING A DEPTH CARD AND ITS METHOD
WO2014133219A1 (en) Digital device and method for controlling the same
WO2021015505A1 (en) Foldable electronic device and photographing method using multiple cameras in foldable electronic device
WO2019027090A1 (ko) 이동 단말기 및 그 제어 방법
WO2021013147A1 (zh) 视频处理方法、装置、终端及存储介质
WO2021157954A1 (ko) 복수의 카메라를 이용한 동영상 촬영 방법 및 그 장치
WO2018080152A1 (en) Portable device and method for controlling screen in the portable device
WO2021082744A1 (zh) 视频查看方法及电子设备
US10924789B2 (en) Display control apparatus, control method for display control apparatus, and non-transitory computer readable medium
WO2019156480A1 (ko) 시선에 기반한 관심 영역 검출 방법 및 이를 위한 전자 장치
WO2020054978A1 (ko) 이미지 생성 장치 및 그 방법
WO2019164286A1 (ko) 전자 장치 및 그의 녹화 방법
WO2019017585A1 (en) ELECTRONIC DEVICE FOR CONTROLLING THE DEVELOPMENT OF A LENS AND METHOD OF CONTROLLING THE SAME
WO2020013647A1 (ko) 전자 장치 및 전자 장치의 음량 조절 방법
US20200099856A1 (en) Mobile terminal
WO2018131747A1 (ko) 이동 단말기 및 그 제어 방법
JP2021174317A (ja) 電子機器及びその制御方法
CN113613053B (zh) 视频推荐方法、装置、电子设备及存储介质
WO2021162396A1 (ko) 복수의 콘텐츠를 생성하는 방법 및 그 전자 장치
WO2016111598A1 (ko) 투명 디스플레이를 구비한 디스플레이 장치 및 그 디스플레이 장치의 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15803556

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15313548

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015803556

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015803556

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE