WO2019031764A1 - 미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치 - Google Patents

미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치 Download PDF

Info

Publication number
WO2019031764A1
WO2019031764A1 PCT/KR2018/008792 KR2018008792W WO2019031764A1 WO 2019031764 A1 WO2019031764 A1 WO 2019031764A1 KR 2018008792 W KR2018008792 W KR 2018008792W WO 2019031764 A1 WO2019031764 A1 WO 2019031764A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
electronic device
mirror
angle
Prior art date
Application number
PCT/KR2018/008792
Other languages
English (en)
French (fr)
Inventor
이진원
변광석
이기우
정종삼
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/637,044 priority Critical patent/US11006030B2/en
Publication of WO2019031764A1 publication Critical patent/WO2019031764A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Definitions

  • Various embodiments of the present invention are directed to a method and an electronic device for acquiring an image using a camera including a mirror rotatable by a driving device.
  • Electronic devices can provide a variety of functions.
  • a smart phone may be equipped with a short range wireless communication (e.g., Bluetooth, Wi-Fi, or near field communication (NFC) , 4G, 5G, etc.), a music or video playback function, a shooting function, or a navigation function.
  • a short range wireless communication e.g., Bluetooth, Wi-Fi, or near field communication (NFC) , 4G, 5G, etc.
  • NFC near field communication
  • the camera In order to provide subject tracking, the camera must be able to move the view angle.
  • the camera includes a module rotation system that rotates the camera module as a whole, or a mirror rotation system that rotates the mirror to transmit light to the image sensor by changing the axis (optical axis) of the incident light, So that the angle of view can be moved.
  • the module rotation method which provides a pan-tilt function by rotating the entire camera module, requires a large mounting space because the rotation radius of the camera module must be secured, and a slimmer electronic device (for example, Smart phones).
  • the mirror rotation method for providing the pan-tilt function by rotating the mirror requires securing the rotation space of the mirror, it may be difficult to make the camera module slim.
  • image distortion may occur as the mirror rotates without rotation of the image sensor.
  • Various embodiments of the present invention for solving the above problems can reduce the size of the mirror in the camera module of the mirror rotation type to slim the camera module.
  • various embodiments of the present invention can correct image distortion due to rotation of the mirror.
  • various embodiments of the present invention may provide hand shake correction and gimbal functions using the rotation of the mirror.
  • various embodiments of the present invention can efficiently photograph a panoramic picture by appropriately rotating the mirror based on the moving speed and / or the moving direction of the electronic device.
  • An electronic device includes a first camera; An image sensor, a mirror for transmitting light incident from the outside to the image sensor, and a driving device capable of rotating the mirror in at least one direction along at least one axis of rotation, A second camera having a small angle of view; And at least one processor, wherein the at least one processor is configured to use the first camera to obtain a first image comprising one or more outer objects, By at least some of the objects, or at least a portion of the first image, and the angle of view of the second camera is moved to a position corresponding to the selected at least some object or the at least partial region
  • the mirror may be set to acquire the second image in a rotated state.
  • An image acquisition method of an electronic device includes: obtaining a first image including at least one outer object using a first camera having a first angle of view; Detecting a selection of at least some of at least one of the at least one outer objects included in the first image or at least a portion of the first image; And a second angle of view of a second camera having a second angle of view smaller than the first angle of view and including a mirror rotatable in at least one direction is directed to a position corresponding to the selected at least some object or the at least partial region, And acquiring a second image in a rotated state.
  • a camera device includes: a mirror for changing a path of light incident from the outside; A drive device configured to rotate the mirror in at least one direction along at least one axis of rotation; At least one lens for collecting light reflected through the mirror; A light splitting element for passing a first portion of light incident through said at least one lens and for reflecting a second portion; A first image sensor disposed on the path of light of the first portion to receive the first portion; And a second image sensor disposed on the path of light of the second portion to receive the second portion and configured to receive light of at least a different wavelength from the first image sensor.
  • Various embodiments of the present invention can minimize the size and slimness of the mirror by configuring a camera of mirror rotation type with a multi-camera including a color (RGB) camera and a mono camera.
  • the multi-camera according to the embodiment of the present invention can share a lens, a mirror, and the like, thereby reducing the mounting space.
  • various embodiments of the present invention compensate for image rotation caused by rotation of the mirror, thereby preventing image loss.
  • various embodiments of the present invention can provide a hand shake correction function and a gimbal function by controlling the rotation of the mirror without a separate hand shake correction apparatus.
  • the various embodiments of the present invention may also be adapted to rotate the mirror appropriately based on the moving speed and / or the direction of movement of the electronic device during panoramic photographing so that at least some of the images overlap (overlap) .
  • Figure 1 illustrates a network environment including an electronic device, in accordance with various embodiments of the present invention.
  • 2A is a block diagram of an electronic device according to various embodiments.
  • 2B is a block diagram illustrating a camera module.
  • FIG. 3 is a block diagram of a program module according to various embodiments.
  • 4A is a diagram illustrating an electronic device according to an embodiment of the present invention.
  • 4B is a diagram illustrating an electronic device according to another embodiment of the present invention.
  • 4C is a schematic view of an electronic device according to another embodiment of the present invention.
  • 5A is a diagram showing a user interface of an electronic device according to an embodiment of the present invention.
  • 5B is a diagram illustrating a user interface of an electronic device according to another embodiment of the present invention.
  • 5C is a diagram illustrating a user interface of an electronic device according to another embodiment of the present invention.
  • 6A is a diagram illustrating a structure of a camera module according to an embodiment of the present invention.
  • 6B is a view for explaining an example of rotation of a mirror according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a structure of a camera module according to another embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating a method of acquiring an image of an electronic device according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating an image correction method of an electronic device according to an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating in detail an image correction method of an electronic device according to an embodiment of the present invention.
  • 11A is a diagram for explaining an image correction method of an electronic device according to an embodiment of the present invention.
  • 11B is a view for explaining a method of varying the image size according to the rotation of the mirror of the electronic device according to the embodiment of the present invention.
  • 12A is a diagram for explaining the hand shake correction function of the electronic device according to the embodiment of the present invention.
  • 12B is a view for explaining a gimbals function of an electronic device according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating a panoramic photographing method of an electronic device according to an embodiment of the present invention.
  • 14A, 14B, and 14C are views for explaining a panoramic photographing method of an electronic device according to an embodiment of the present invention.
  • first component is "(functionally or communicatively) connected” or “connected” to another (second) component, May be connected directly to the component, or may be connected through another component (e.g., a third component).
  • a device configured to " may mean that the device can " do " with other devices or components.
  • a processor configured (or configured) to perform the phrases " A, B, and C " may be implemented by executing one or more software programs stored in a memory device or a dedicated processor (e.g., an embedded processor) , And a general purpose processor (e.g., a CPU or an application processor) capable of performing the corresponding operations.
  • Electronic devices may be used in various applications such as, for example, smart phones, tablet PCs, mobile phones, videophones, electronic book readers, desktop PCs, laptop PCs, netbook computers, workstations, a portable multimedia player, an MP3 player, a medical device, a camera, or a wearable device.
  • Wearable devices may be of the type of accessories (eg, watches, rings, bracelets, braces, necklaces, glasses, contact lenses or head-mounted-devices (HMD) (E.g., a skin pad or tattoo), or a bio-implantable circuit.
  • HMD head-mounted-devices
  • the electronic device may be, for example, a television, a digital video disk (Such as Samsung HomeSync TM , Apple TV TM , or Google TV TM ), which are used in home appliances such as home appliances, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air cleaners, set top boxes, home automation control panels, , A game console (e.g., Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic photo frame.
  • a game console e.g., Xbox TM , PlayStation TM
  • an electronic dictionary e.g., an electronic key, a camcorder, or an electronic photo frame.
  • the electronic device may be any of a variety of medical devices (e.g., various portable medical measurement devices such as a blood glucose meter, a heart rate meter, a blood pressure meter, or a body temperature meter), magnetic resonance angiography (MRA) A navigation system, a global navigation satellite system (GNSS), an event data recorder (EDR), a flight data recorder (FDR), an automobile infotainment device, a marine electronic equipment (For example, marine navigation systems, gyro compasses, etc.), avionics, security devices, head units for vehicles, industrial or domestic robots, drones, ATMs at financial institutions, of at least one of the following types of devices: a light bulb, a fire detector, a fire alarm, a thermostat, a streetlight, a toaster, a fitness device, a hot water tank, a heater, a boiler, .
  • various portable medical measurement devices such as a blood glucose meter, a heart rate meter, a blood pressure meter, or
  • the electronic device may be a piece of furniture, a building / structure or part of an automobile, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (e.g., Gas, or radio wave measuring instruments, etc.).
  • the electronic device may be flexible or a combination of two or more of the various devices described above.
  • the electronic device according to the embodiment of the present document is not limited to the above-described devices.
  • the term user may refer to a person using an electronic device or a device using an electronic device (e.g., an artificial intelligence electronic device).
  • Figure 1 illustrates a network environment including an electronic device, in accordance with various embodiments of the present invention.
  • the electronic device 101 may include a bus 110, a processor 120, a memory 130, an input / output interface 150, a display 160, and a communication interface 170. In some embodiments, the electronic device 101 may omit at least one of the components or additionally include other components.
  • the bus 110 may include circuitry to connect the components 110-170 to one another and to communicate communications (e.g., control messages or data) between the components.
  • Processor 120 may include one or more of a central processing unit, an application processor, or a communications processor (CP). The processor 120 may perform computations or data processing related to, for example, control and / or communication of at least one other component of the electronic device 101.
  • Memory 130 may include volatile and / or non-volatile memory. Memory 130 may store instructions or data related to at least one other component of electronic device 101, for example. According to one embodiment, the memory 130 may store software and / or programs 140.
  • the program 140 may include, for example, a kernel 141, a middleware 143, an application programming interface (API) 145, and / or an application program . At least some of the kernel 141, middleware 143, or API 145 may be referred to as an operating system.
  • the kernel 141 may include system resources used to execute an operation or function implemented in other programs (e.g., middleware 143, API 145, or application program 147) (E.g., bus 110, processor 120, or memory 130).
  • the kernel 141 also provides an interface to control or manage system resources by accessing individual components of the electronic device 101 in the middleware 143, API 145, or application program 147 .
  • the middleware 143 can perform an intermediary role such that the API 145 or the application program 147 can communicate with the kernel 141 to exchange data.
  • the middleware 143 may process one or more task requests received from the application program 147 according to the priority order.
  • middleware 143 may use system resources (e.g., bus 110, processor 120, or memory 130, etc.) of electronic device 101 in at least one of application programs 147 Prioritize, and process the one or more task requests.
  • the API 145 is an interface for the application 147 to control the functions provided by the kernel 141 or the middleware 143.
  • the API 145 is an interface for controlling the functions provided by the application 141.
  • An interface or a function e.g., a command).
  • Output interface 150 may be configured to communicate commands or data entered from a user or other external device to another component (s) of the electronic device 101, or to another component (s) of the electronic device 101 ) To the user or other external device.
  • the display 160 may include a display such as, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display, or an electronic paper display .
  • Display 160 may display various content (e.g., text, images, video, icons, and / or symbols, etc.) to a user, for example.
  • Display 160 may include a touch screen and may receive a touch, gesture, proximity, or hovering input using, for example, an electronic pen or a portion of the user's body.
  • the communication interface 170 establishes communication between the electronic device 101 and an external device (e.g., the first external electronic device 102, the second external electronic device 104, or the server 106) .
  • communication interface 170 may be connected to network 162 via wireless or wired communication to communicate with an external device (e.g., second external electronic device 104 or server 106).
  • the wireless communication may include, for example, LTE, LTE-A (LTE Advance), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), wireless broadband (WiBro) System for Mobile Communications), and the like.
  • the wireless communication may include, for example, wireless fidelity (WiFi), light fidelity (LiFi), Bluetooth, Bluetooth low power (BLE), Zigbee, May comprise at least one of near field communication (NFC), magnetic secure transmission (MSS), radio frequency (RF), or body area network (BAN).
  • wireless communication may include GNSS.
  • GNSS may be, for example, Global Positioning System (GPS), Global Navigation Satellite System (Glonass), Beidou Navigation Satellite System (Beidou) or Galileo, the European global satellite-based navigation system.
  • GPS can be used interchangeably with " GNSS ".
  • the wired communication may include, for example, at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a recommended standard 232 (RS-232), a power line communication or a plain old telephone service have.
  • Network 162 may include at least one of a telecommunications network, e.g., a computer network (e.g., LAN or WAN), the Internet, or a telephone network.
  • Each of the first and second external electronic devices 102, 104 may be the same or a different kind of device as the electronic device 101. According to various embodiments, all or a portion of the operations performed in the electronic device 101 may be performed in one or more other electronic devices (e.g., electronic devices 102, 104, or server 106). According to the present invention, when electronic device 101 is to perform a function or service automatically or on demand, electronic device 101 may perform at least some functions associated therewith instead of, or in addition to, (E.g., electronic device 102, 104, or server 106) may request the other device (e.g., electronic device 102, 104, or server 106) Perform additional functions, and forward the results to the electronic device 101. The electronic device 101 may process the received results as is or additionally to provide the requested functionality or services. For example, Cloud computing, distributed computing, or client-server computing techniques can be used.
  • the electronic device 201 may include all or part of the electronic device 101 shown in Fig. 1, for example.
  • the electronic device 201 may include one or more processors (e.g., AP) 210, a communications module 220, a subscriber identification module 224, a memory 230, a sensor module 240, an input device 250, An interface 270, an audio module 280, a camera module 291, a power management module 295, a battery 296, an indicator 297, and a motor 298.
  • the processor 290, The processor 210 may be, for example, an operating system or an application program to control a plurality of hardware or software components coupled to the processor 210, and to perform various data processing and operations.
  • the processor 210 may further include a graphics processing unit (GPU) and / or an image signal processor.
  • the cellular module 210 may include at least some of the components shown in Figure 2 (e.g., the cellular module 221)
  • the processor 210 other components processing by loading the command or data received from at least one (e.g., non-volatile memory) in the volatile memory) and can store the result data into the nonvolatile memory.
  • the processor 210 may control operations related to shooting still images or moving images using the camera module 291 of the electronic device 201.
  • the processor 210 may control (e.g., move) the angle of view of the camera module 291.
  • the processor 210 may rotate the mirror included in the camera module 291 in at least one direction to move the angle of view.
  • the processor 210 can control the angle of view of the camera module 291 to track the subject.
  • the processor 210 may correct image distortion due to rotation of the mirror.
  • the processor 210 may provide an image stabilization function, a pan-tilt function, and / or a gimbal function using the rotation of the mirror.
  • the processor 210 may determine the rotation of the mirror so that at least one image for generating a panoramic image may be acquired uniformly, taking into account the direction and / or speed of movement of the electronic device during panoramic photographing. Can be controlled. A detailed description of the processor 210 will be given later.
  • the communication module 220 may include, for example, a cellular module 221, a WiFi module 223, a Bluetooth module 225, a GNSS module 227, an NFC module 228 and an RF module 229 have.
  • the cellular module 221 can provide voice calls, video calls, text services, or Internet services, for example, over a communication network.
  • the cellular module 221 may utilize a subscriber identity module (e.g., a SIM card) 224 to perform the identification and authentication of the electronic device 201 within the communication network.
  • the cellular module 221 may perform at least some of the functions that the processor 210 may provide.
  • the cellular module 221 may comprise a communications processor (CP). At least some (e.g., two or more) of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228, according to some embodiments, (IC) or an IC package.
  • the RF module 229 can, for example, send and receive communication signals (e.g., RF signals).
  • the RF module 229 may include, for example, a transceiver, a power amplifier module (PAM), a frequency filter, a low noise amplifier (LNA), or an antenna.
  • PAM power amplifier module
  • LNA low noise amplifier
  • the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 transmits / receives an RF signal through a separate RF module .
  • the subscriber identification module 224 may include, for example, a card or an embedded SIM containing a subscriber identity module, and may include unique identification information (e.g., ICCID) or subscriber information (e.g., IMSI (international mobile subscriber identity).
  • Memory 230 may include, for example, internal memory 232 or external memory 234.
  • Volatile memory e.g., a DRAM, an SRAM, or an SDRAM
  • non-volatile memory e.g., an OTPROM, a PROM, an EPROM, an EEPROM, a mask ROM, a flash ROM , A flash memory, a hard drive, or a solid state drive (SSD).
  • the external memory 234 may be a flash drive, for example, a compact flash (CF) ), Micro-SD, Mini-SD, extreme digital (xD), multi-media card (MMC), or memory stick, etc.
  • External memory 234 may communicate with electronic device 201, Or may be physically connected.
  • the memory 230 is located within the housing of the electronic device 201 and may be functionally or electrically coupled to the processor 210. [ The memory 230 may store various programs, and may store data generated during the execution of the various programs, downloaded data, and the like. The memory 230 may store various commands and / or instructions for operating the processor 210.
  • the memory 230 may store various programs for controlling operations related to shooting still images or moving images of the camera module 291 of the electronic device 201.
  • the memory 230 may include a program for controlling the angle of view of the camera module 291 to track the subject, a program for correcting image distortion caused by the rotation of the mirror, a camera- , A program for providing a pan-tilt function and / or a gimbal function, a program for controlling the rotation of the mirror during panoramic photographing, and the like.
  • the sensor module 240 may, for example, measure a physical quantity or sense the operating state of the electronic device 201 to convert the measured or sensed information into an electrical signal.
  • the sensor module 240 includes a gesture sensor 240A, a gyro sensor 240B, an air pressure sensor 240C, a magnetic sensor 240D, an acceleration sensor 240E, a grip sensor 240F, A temperature sensor 240G, a UV sensor 240G, a color sensor 240H (e.g., an RGB (red, green, blue) sensor), a living body sensor 240I, And a sensor 240M.
  • the sensor module 240 may be configured to perform various functions such as, for example, an e-nose sensor, an electromyography (EMG) sensor, an electroencephalograph (EEG) sensor, an electrocardiogram An infrared (IR) sensor, an iris sensor, and / or a fingerprint sensor.
  • the sensor module 240 may further include a control circuit for controlling at least one or more sensors belonging to the sensor module 240.
  • the electronic device 201 further includes a processor configured to control the sensor module 240, either as part of the processor 210 or separately, so that while the processor 210 is in a sleep state, The sensor module 240 can be controlled.
  • the sensor module 240 can sense the shaking (e.g., hand tremor) of the electronic device 201.
  • the sensor module 240 senses sensing information (for example, a sensor signal) in accordance with at least one of a yaw, a pitch, and a roll of the electronic device 201 during photographing or moving picture photographing, Sensor value) to the processor 210.
  • the sensor module 240 may provide sensing information (e.g., a sensor value) that is measured or sensed in accordance with the movement of the electronic device 201 (e.g., movement direction, movement speed, To the processor 210.
  • the input device 250 may include, for example, a touch panel 252, a (digital) pen sensor 254, a key 256, or an ultrasonic input device 258.
  • a touch panel 252 for example, at least one of an electrostatic type, a pressure sensitive type, an infrared type, and an ultrasonic type can be used.
  • the touch panel 252 may further include a control circuit.
  • the touch panel 252 may further include a tactile layer to provide a tactile response to the user.
  • (Digital) pen sensor 254 may be part of, for example, a touch panel or may include a separate recognition sheet.
  • Key 256 may include, for example, a physical button, an optical key, or a keypad.
  • the ultrasonic input device 258 can sense the ultrasonic wave generated by the input tool through the microphone (e.g., the microphone 288) and confirm the data corresponding to the ultrasonic wave detected.
  • Display 260 may include panel 262, hologram device 264, projector 266, and / or control circuitry for controlling them.
  • the panel 262 may be embodied, for example, flexibly, transparently, or wearably.
  • the panel 262 may comprise a touch panel 252 and one or more modules.
  • the panel 262 may include a pressure sensor (or force sensor) capable of measuring the intensity of the pressure on the user's touch.
  • the pressure sensor may be integrated with the touch panel 252 or may be implemented by one or more sensors separate from the touch panel 252.
  • the hologram device 264 can display a stereoscopic image in the air using interference of light.
  • the projector 266 can display an image by projecting light onto a screen.
  • the screen may be located, for example, inside or outside the electronic device 201.
  • the interface 270 may include, for example, an HDMI 272, a USB 274, an optical interface 276, or a D-sub (D-subminiature) 278.
  • the interface 270 may, for example, be included in the communication interface 170 shown in FIG. Additionally or alternatively, the interface 270 may include, for example, a mobile high-definition link (MHL) interface, an SD card / multi-media card (MMC) interface, or an infrared data association have.
  • MHL mobile high-definition link
  • MMC multi-media card
  • the display 260 may display various user interfaces for controlling photographing or moving picture taking using a plurality of cameras.
  • the display 260 may display a preview image obtained through the camera module 291.
  • the display 260 may display at least one of a plurality of images obtained through a plurality of cameras having different angles of view in various ways (e.g., by picture by picture, picture in picture, Screen (multi-view) or the like). A detailed description thereof will be given later with reference to Figs. 5A to 5C.
  • the audio module 280 can, for example, convert sound and electrical signals in both directions. At least some of the components of the audio module 280 may be included, for example, in the input / output interface 145 shown in FIG.
  • the audio module 280 may process sound information input or output through, for example, a speaker 282, a receiver 284, an earphone 286, a microphone 288, or the like.
  • the camera module 291 is, for example, a device capable of capturing still images (e.g., photographs, panoramic photographs) and moving images, and according to one embodiment, one or more image sensors (e.g., front sensor or rear sensor) A lens, an image signal processor (ISP), or a flash (e.g., LED or xenon lamp, etc.).
  • image sensors e.g., front sensor or rear sensor
  • ISP image signal processor
  • flash e.g., LED or xenon lamp, etc.
  • the camera module 291 may include at least one camera capable of moving an angle of view.
  • the camera module 291 has a first angle of view, a first camera that can not move the first angle of view, and a second angle of view that is smaller than the first angle of view.
  • a second camera capable of capturing an image.
  • the first camera 29-1 may include a first lens module 29a and a first image sensor 29b.
  • the first lens module 29a may include at least one lens that collects or diffuses the incident light.
  • the first lens module 29a may be a wide-angle lens.
  • the first image sensor 29b can convert the light incident through the first lens module 29a into image data.
  • the first camera 29-1 is shown as a mirrorless camera in FIG. 2B, according to an embodiment, the first camera 29-1 transmits light incident from the outside to the first image sensor 29b (Not shown) that reflects (e.g., reflects) light.
  • the second camera 29-2 may include a mirror 29c, a driver 29d, a second lens module 29e, and a second image sensor 29f.
  • the mirror 29c can transmit the light incident from the outside to the second image sensor 29f.
  • the driving device 29d can rotate the mirror 29c in at least one direction along at least one rotation axis.
  • the second lens module 29e can collect or diffuse the light reflected from the mirror 29c.
  • the second lens module 29e may be a telephoto lens.
  • the second image sensor 29f can convert the light incident through the second lens module 29e into image data of a predetermined size.
  • the second image sensor 29f can vary the size of the image data according to the rotation of the mirror 29c. A detailed description thereof will be given later with reference to Figs. 10 and 11. Fig.
  • the camera module 291 may include a first camera having a first angle of view, and a second camera having a second angle of view and capable of moving an angle of view.
  • the first angle of view may have a larger value than the second angle of view.
  • the first camera may be a wide angle camera having an angle of view of 60 degrees or more, and the second camera may be a telephoto camera having an angle of view of 30 degrees or less.
  • the first camera may be a wide angle camera and the second camera may be a standard camera having an angle of view of about 50 degrees.
  • the first camera may be a standard camera and the second camera may be a telephoto camera.
  • the angle of view of the wide-angle camera, the standard camera, and the telephoto camera described above is one example generally used in the technical field of the present invention, and does not limit the various embodiments of the present invention.
  • the camera module 291 may include at least one first camera having a first angle of view, or at least one second camera having a second angle of view and capable of angle of view angles.
  • the first camera 29-1 and the second camera 29-2 may be configured as one camera module 291, respectively.
  • At least one of the first camera 29-1 and the second camera 29-2 may be implemented as a multi-camera including a color (RGB) camera and a mono camera .
  • RGB color
  • the first camera or the second camera is implemented by a multi-camera including an RGB camera and a mono camera, and a detailed description thereof will be omitted.
  • the power management module 295 can, for example, manage the power of the electronic device 201.
  • the power management module 295 may include a power management integrated circuit (PMIC), a charging IC, or a battery or fuel gauge.
  • the PMIC may have a wired and / or wireless charging scheme.
  • the wireless charging system may include, for example, a magnetic resonance system, a magnetic induction system, or an electromagnetic wave system, and may further include an additional circuit for wireless charging, for example, a coil loop, a resonant circuit, have.
  • the battery gauge can measure, for example, the remaining amount of the battery 296, the voltage during charging, the current, or the temperature.
  • the battery 296 may include, for example, a rechargeable battery and / or a solar cell.
  • the indicator 297 may indicate a particular state of the electronic device 201 or a portion thereof (e.g., processor 210), e.g., a boot state, a message state, or a state of charge.
  • the motor 298 can convert the electrical signal to mechanical vibration, and can generate vibration, haptic effects, and the like.
  • Electronic device 201 is, for example, DMB Mobile TV-enabled devices capable of handling media data in accordance with standards such as (digital multimedia broadcasting), DVB (digital video broadcasting), or MediaFLO (mediaFlo TM) (for example, : GPU).
  • Each of the components described in this document may be composed of one or more components, and the name of the component may be changed according to the type of the electronic device.
  • an electronic device e. G., Electronic device 201 may have some components omitted, further include additional components, or some of the components may be combined into one entity, The functions of the preceding components can be performed in the same manner.
  • program module 310 (e.g., program 140) includes an operating system that controls resources associated with an electronic device (e.g., electronic device 101) and / E.g., an application program 147).
  • the operating system may include, for example, Android TM , iOS TM , Windows TM , Symbian TM , Tizen TM , or Bada TM .
  • program module 310 includes a kernel 320 (e.g., kernel 141), middleware 330 (e.g., middleware 143), API 360 (e.g., API 145) ), And / or an application 370 (e.g., an application program 147). At least a portion of the program module 310 may be preloaded on an electronic device, 102 and 104, a server 106, and the like).
  • the kernel 320 may include, for example, a system resource manager 321 and / or a device driver 323.
  • the system resource manager 321 can perform control, allocation, or recovery of system resources.
  • the system resource manager 321 may include a process manager, a memory manager, or a file system manager.
  • the device driver 323 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, an audio driver, or an inter-process communication .
  • the middleware 330 may provide various functions through the API 360, for example, to provide functions that are commonly needed by the application 370 or allow the application 370 to use limited system resources within the electronic device.
  • Application 370 as shown in FIG.
  • the middleware 330 includes a runtime library 335, an application manager 341, a window manager 342, a multimedia manager 343, a resource manager 344, a power manager 345, a database manager
  • the service manager 341 may be a service manager, a service manager, a service manager, a package manager 346, a package manager 347, a connectivity manager 348, a notification manager 349,
  • the runtime library 335 may include, for example, a library module that the compiler uses to add new functionality via a programming language while the application 370 is executing.
  • the runtime library 335 may perform input / output management, memory management, or arithmetic function processing.
  • the application manager 341 can manage the life cycle of the application 370, for example.
  • the window manager 342 can manage GUI resources used in the screen.
  • the multimedia manager 343 can recognize the format required for reproducing the media files and can perform encoding or decoding of the media file using a codec according to the format.
  • the resource manager 344 can manage the source code of the application 370 or the space of the memory.
  • the power manager 345 manages, for example, the capacity, temperature, or power of the battery, and can determine or provide power information necessary for the operation of the electronic device using the information. According to one embodiment, the power manager 345 may interoperate with a basic input / output system (BIOS).
  • BIOS basic input / output system
  • the database manager 346 may create, retrieve, or modify the database to be used in the application 370, for example.
  • the package manager 347 can manage installation or update of an application distributed in the form of a package file.
  • the connectivity manager 348 may, for example, manage the wireless connection.
  • the notification manager 349 may provide the user with an event such as, for example, an arrival message, an appointment, a proximity notification, and the like.
  • the location manager 350 can manage the location information of the electronic device, for example.
  • the graphic manager 351 may, for example, manage the graphical effects to be presented to the user or a user interface associated therewith.
  • Security manager 352 may provide, for example, system security or user authentication.
  • the middleware 330 may include a telephony manager for managing the voice or video call function of the electronic device, or a middleware module capable of forming a combination of the functions of the above-described components .
  • the middleware 330 may provide a module specialized for each type of operating system. Middleware 330 may dynamically delete some existing components or add new ones.
  • the API 360 may be provided in a different configuration depending on the operating system, for example, as a set of API programming functions. For example, for Android or iOS, you can provide a single API set for each platform, and for Tizen, you can provide two or more API sets for each platform.
  • the application 370 may include a home 371, a dialer 372, an SMS / MMS 373, an instant message 374, a browser 375, a camera 376, an alarm 377, Contact 378, voice dial 379, email 380, calendar 381, media player 382, album 383, watch 384, healthcare (e.g., measuring exercise or blood glucose) , Or environmental information (e.g., air pressure, humidity, or temperature information) application.
  • the application 370 may include an information exchange application capable of supporting the exchange of information between the electronic device and the external electronic device.
  • the information exchange application may include, for example, a notification relay application for communicating specific information to an external electronic device, or a device management application for managing an external electronic device.
  • the notification delivery application can transmit notification information generated in another application of the electronic device to the external electronic device, or receive notification information from the external electronic device and provide the notification information to the user.
  • the device management application may, for example, control the turn-on / turn-off or brightness (or resolution) of an external electronic device in communication with the electronic device (e.g., the external electronic device itself Control), or install, delete, or update an application running on an external electronic device.
  • the application 370 may include an application (e.g., a healthcare application of a mobile medical device) designated according to the attributes of the external electronic device.
  • the application 370 may include an application received from an external electronic device.
  • At least some of the program modules 310 may be implemented (e.g., executed) in software, firmware, hardware (e.g., processor 210), or a combination of at least two of the same, Program, routine, instruction set or process.
  • 4A is a diagram illustrating an electronic device according to an embodiment of the present invention.
  • an electronic device e.g., electronic device 101, electronic device 201 according to an embodiment of the present invention includes a camera 410 (e.g., camera module 291) and a flash 411 can be mounted. According to some embodiments, the camera 410 may be located on the front or side of the electronic device.
  • a camera 410 e.g., camera module 291
  • a flash 411 can be mounted. According to some embodiments, the camera 410 may be located on the front or side of the electronic device.
  • the camera 410 has a view angle 41 of a predetermined size and the view angle 41 of the camera 410 can be moved.
  • the camera 410 rotates a mirror (not shown) contained therein to at least one of a yaw, a pitch, and a roll so that the identification code 41-1 or 41-2 It is possible to move the angle of view 41 as well.
  • 4B is a diagram illustrating an electronic device according to another embodiment of the present invention.
  • an electronic device e.g., electronic device 101, electronic device 201 according to another embodiment of the present invention includes a first camera 420, a flash 421, and a second camera 430 ).
  • the first camera 420 may have a first angle of view 42 and may be a wide angle camera or a standard camera that can not move the first angle of view 42.
  • the first camera 420 may acquire the first image.
  • the first camera 420 may move at a first angle of view.
  • the second camera 430 has a second angle of view 43 that is smaller than the first angle of view 42 and can move the second angle of view 43 by rotating a mirror (not shown).
  • the second camera 430 may be a standard camera or a telephoto camera.
  • the second camera 430 can move the second angle of view 43 within the range of the first angle of view 42.
  • the second angle of view 43 of the second camera 430 may be moved as indicated by an identification code 43-1 or 43-2 corresponding to the rotation of the mirror.
  • the second camera 430 may acquire a second image corresponding to at least some selected objects or selected at least some of the objects included in the first image acquired through the first camera 420.
  • the second camera 430 may track the selected object to obtain a second image.
  • 4C is a diagram illustrating an electronic device according to another embodiment of the present invention.
  • an electronic device e.g., electronic device 101, electronic device 201 according to another embodiment of the present invention includes a first camera 440, a flash 441, 450).
  • the first camera 440 may be a wide angle camera or a standard camera having a first angle of view 44 and not capable of moving the first angle of view 44.
  • the first camera 440 may acquire the first image.
  • the first camera 440 may move the first angle of view 44.
  • the second camera 450 may be a standard camera or a telephoto camera having a second angle of view 45 that is smaller than the first angle of view 44.
  • the second camera 450 may include an RGB camera 451 and a monochromatic camera 452.
  • the RGB camera 451 and the mono camera 452 have the same second angle of view 45 and the second angle of view 45 is shifted as the identification symbols 45-1 and 45-2 in accordance with the rotation of the mirror .
  • the RGB camera 451 and the mono camera 452 may include an image sensor set to receive light of at least different wavelengths.
  • the RGB camera 451 can acquire color information and color sharpness
  • the mono camera 452 can acquire details of light and darkness.
  • the second camera 450 may acquire the second image by adding the color information obtained through the RGB camera 451 to the image obtained through the mono camera 452.
  • 5A is a diagram showing a user interface of an electronic device according to an embodiment of the present invention.
  • an electronic device for example, electronic device 101, electronic device 201 according to an embodiment of the present invention is obtained through a first camera and a second camera, respectively,
  • the first image and the second image can be displayed on the display 560 through a multi-screen (e.g., dual view) or a PBP (picture by picture) method.
  • the electronic device may display a first image obtained through a first camera in a first area 501 and a second image obtained through a second camera in a second area 502 .
  • the electronic device may display a first image obtained through a first camera in a second area 502 and a second image obtained through a second camera in a first area 501 Can be displayed.
  • the first region 501 and the second region 502 may have the same size. According to some embodiments, the first region 501 and the second region 502 may have different sizes. According to another embodiment, the sizes of the first area 501 and the second area 502 can be freely changed by the user.
  • the electronic device may interchange (switch) the images displayed in the first area 501 and the second area 502 according to a user's request (command).
  • the first image and the second image can be selectively photographed or recorded as a preview image.
  • the first image and the second image may include a photographing or recording menu key located around (or within) the first area 501 and the second area 502, or a physical button located in the housing of the electronic device Quot ;, or " recording "
  • the second image may be an image corresponding to a selected at least some object or at least a selected one of at least one object included in the first image.
  • the electronic device may display a graphical indicator 510 indicative of a position corresponding to the second image in at least a portion of the first image displayed in the first region 501. [ The user can easily recognize the photographing range of the second camera through the indicator 510. [
  • the electronic device may track a selected object while moving the angle of view of the second camera to obtain a second image.
  • the electronic device may provide the alarm message in a variety of ways (e.g., visual, auditory, tactile, etc.) if the object is not traceable beyond the movable range of view angles.
  • 5B is a diagram illustrating a user interface of an electronic device according to another embodiment of the present invention.
  • an electronic device for example, electronic device 101, electronic device 201 according to another embodiment of the present invention is obtained through a first camera and a second camera, respectively,
  • the first image and the second image can be displayed on the display 560 through the PIP method.
  • the electronic device may display the second image obtained through the second camera as a full screen 511, and display the first image obtained through the first camera on the sub screen 512 .
  • the electronic device may display a first image obtained through the first camera with the full screen 511 and a second image acquired with the second camera with the sub-screen 512 .
  • the size and position of the sub screen 512 can be changed by the user.
  • the images displayed on the full screen 511 and the sub screen 512 may be mutually changed by the user.
  • the first image and the second image may be selectively photographed or recorded.
  • a user of the electronic device may utilize the first camera as a viewfinder (e.g., electrical view finder (EVF)).
  • EVF electrical view finder
  • the user of the electronic device can check the approximate photographing position through the first image acquired through the first camera, select (e.g., touch) a specific object or region of the first image, So that the selected object or position can be photographed.
  • the electronic device may rotate the mirror of the second camera such that the angle of view of the second camera faces the selected object or position.
  • 5C is a diagram illustrating a user interface of an electronic device according to another embodiment of the present invention.
  • an electronic device e.g., electronic device 101, electronic device 201 according to an embodiment of the present invention includes a first image and a second image obtained through the first camera and the second camera, respectively, 2 image on the display 560 in a toggle manner.
  • the electronic device can display the second image in full screen upon detection of a set input (e.g., toggle button touch, gesture input, etc.) while displaying the first image in full screen, The first image can be displayed again in full screen.
  • a set input e.g., toggle button touch, gesture input, etc.
  • the electronic device may provide a zoom in / out function of the first image using digital zoom and optical zoom.
  • the electronic device may enlarge the first image using a digital zoom function when a zoom in is requested at a specific position of the first image, such as an identification code 513.
  • the electronic device can move the view angle of the second camera such that the second camera photographs the specific position.
  • the electronic device may provide a zoom in function for the first image using the optical zoom function of the second camera when the first image is enlarged to a size corresponding to the second image obtained through the second camera.
  • the electronic device may provide a zooming function through the digital zoom of the second camera when zooming in is requested beyond the optical zoom capability of the second camera. For example, if the first camera only provides digital zoom, the 5x zoom image of the first image corresponds to the second image, and the second camera provides 3x optical zoom and 10x digital zoom Assuming that the electronic device is capable of providing two to five times the zoom image of the first image through the digital zoom function of the first camera.
  • the electronic device may display the second image acquired through the second camera with a 5x zoom image of the first image.
  • the electronic device provides a 6 to 8 times zoom image of the first image through the optical zoom function of the second camera and a 9 to 18 times zoom image of the first image through the digital zoom function of the second camera can do.
  • FIG. 6A is a view illustrating a structure of a camera module according to an embodiment of the present invention
  • FIG. 6B is a view for explaining an example of rotation of a mirror according to an embodiment of the present invention.
  • an electronic device e.g., electronic device 101, electronic device 201 according to one embodiment of the present invention includes a first camera 610 and a second camera 620 .
  • the first camera 610 does not include a mirror and may have a first angle of view 601 (e.g., a first angle of view 42 or 44).
  • the first camera 610 may have at least one lens 611 and an image sensor 612 arranged (or positioned) in the optical axis direction.
  • the structure of the first camera 610 is not limited thereto, and may have various known structures.
  • the second camera 620 may have a second angle of view 602 (e.g., a second angle of view 43, 43-1, 43-2, 45, 45-1, or 45-2) smaller than the first angle of view 601
  • the second angle of view 602 of the second camera 620 can be moved.
  • the second angle of view 602 can be moved within the range of the first angle of view 601.
  • the embodiments of the present invention are not limited thereto, and the second angle of view 602 may deviate from the range of the first angle of view 601. [
  • the second camera 620 may include an RGB camera 620-1 and a mono camera 620-2.
  • the RGB camera 620-1 changes the optical axis to transmit the incident light to the lens, and includes a mirror 621-1 (e.g., a mirror 29c) rotatable in at least one direction, at least one (For example, a drive device 29d), at least one lens 623-1 (for example, a second lens module 29e) capable of rotating the mirror 621-1 in the direction of the optical axis, , And a color image sensor 624-1.
  • a mirror 621-1 e.g., a mirror 29c
  • a drive device 29d for example, a drive device 29d
  • at least one lens 623-1 for example, a second lens module 29e
  • the monocamera 620-2 changes the optical axis to transmit the incident light to the lens, and includes a mirror 621-2 (e.g., a mirror 29c) rotatable in at least one direction, at least one At least one lens 623-2 (e.g., the second lens module 29e), which can rotate the mirror 621-2 in the direction of the optical axis, , And a mono image sensor 624-2.
  • a mirror 621-2 e.g., a mirror 29c
  • At least one lens 623-2 e.g., the second lens module 29e
  • the mirrors 621-1 and 621-2 can be rotated in at least one direction along at least one rotation axis.
  • the mirrors 621-1 and 621-2 may reflect at least one of a yaw axis and a pitch axis on the basis of incident light 633 And may be rotated in the panning direction 631 and / or the tilting direction 632.
  • the mirrors 621-1 and 621-2 can be rotated in a range exceeding an angle (0 degrees) parallel to the optical axis and less than an angle (90 degrees) perpendicular to the optical axis.
  • the driving devices 622-1 and 622-2 (e.g., the driving device 29d) can rotate the mirrors 621-1 and 621-2 in at least one direction.
  • the driving devices 622-1 and 622-2 may be composed of various devices such as a motor, an actuator, and the like.
  • At least one of the lenses 623-1 and 623-2 can collect or diffuse the incident light, and can adjust the amount of light. At least one lens 623-1, 623-2 may be moved along the optical axis changed by the mirrors 621-1, 621-2 to provide an optical zoom function.
  • the RGB image sensor 624-1 can convert at least a part of the light (for example, light having the first wavelength) passing through the at least one lens 623-1 into an electrical signal to generate a color image.
  • the mono image sensor 624-2 can convert at least a part of light (e.g. light having a second wavelength) passing through at least one lens 623-2 into an electric signal to generate a mono image.
  • the second camera 620 may combine (combine) the color image and the mono image to produce a second image.
  • the technique of combining images obtained through the RGB camera 620-1 and the monochromatic camera 620-2 to acquire an image is well known in the technical field of the present invention, Description thereof will be omitted.
  • the electronic device can reduce the size of the mirrors 621-1 and 621-2 as compared with the single camera by implementing the second camera 620 as a multi-camera.
  • the second camera 620 according to one embodiment of the present invention can be mounted on a slimmed electronic device.
  • FIG. 7 is a diagram illustrating a structure of a camera module according to another embodiment of the present invention.
  • an electronic device e.g., electronic device 101, electronic device 201
  • the first camera 710 is similar to the first camera 610 of Fig. A detailed description thereof will be omitted.
  • the second camera 720 changes the optical axis to transmit the incident light to the lens, and is capable of rotating the mirror 721 in at least one direction along at least one axis of rotation,
  • the mirror 721, the driving device 722 and the lens 723 are connected to the mirrors 621-1 and 621-2, the driving devices 622-1 and 622-2 and the at least one lens 623-1 , 623-2). A detailed description thereof will be omitted.
  • the light splitting element 725 can divide the light incident through the lens 723 into a predetermined ratio and transmit the divided light to the RGB image sensor 724-1 and the mono image sensor 724-2, respectively. For example, the light splitting element 725 passes a first portion of the light transmitted through the lens 723 to the RGB image sensor 724-1 and a second portion of the light to the mono image sensor 724-2 ). ≪ / RTI >
  • the light splitting element 725 can split the light in the same ratio or in different ratios.
  • the optical splitter 725 may be a beam splitter, a dichroic mirror, a prism, a half mirror, or the like.
  • the RGB image sensor 724-1 may be disposed on the path of movement of the first portion of the light transmitted through the lens 723 and the mono image sensor 724-2 may be disposed on the second portion of the light transmitted through the lens 723, As shown in FIG.
  • the RGB image sensor 724-1 and the mono image sensor 724-2 respectively receive a part of the incident light (light of another wavelength divided by the light splitting element 725) to obtain a color image and a mono image .
  • the second camera 720 may combine the color image and the mono image to produce a second image.
  • the RGB image sensor 724-1 and the mono image sensor 724-2 may have different resolutions.
  • the number of pixels of the RGB image sensor 724-1 may be smaller than the number of pixels of the mono image sensor 724-2. This is because the color information has less influence on the quality of the image.
  • the RGB image sensor 724-1 and the mono image sensor 724-2 of the second camera 720 are used in common for the mirror 721, the driving device 722, and the lens 723 As a result, the number of components can be reduced and the mounting space of the second camera 720 can be reduced.
  • the RGB image sensor 724-1 and the mono image sensor 724-2 commonly use the mirror 721, the driving device 722, and the lens 723, It is possible to prevent image deviations that may occur when the image pickup apparatus is driven separately as shown in FIG.
  • one embodiment of the present invention solves problems such as disparity and occlusion that may occur in matching an image obtained from a multi- or dual-camera, so that image registration, image correction, (or an image signal processor (ISP)) according to the amount of light and rectification of the image signal, thereby improving image quality.
  • image registration, image correction, (or an image signal processor (ISP) according to the amount of light and rectification of the image signal, thereby improving image quality.
  • Electronic devices may include a first camera (e.g., first camera 29-1, first camera 410, A camera 420, a first camera 440, a first camera 610, and a first camera 710); A second image sensor 29f, a color image sensor 624-1, a color image sensor 724-1), a mirror (for example, a mirror) for transmitting light incident from the outside to the image sensor (E.g., a drive unit 29d, a drive unit 29d, and a drive unit 29d) capable of rotating the mirror in at least one direction along at least one axis of rotation, (E.g., a second camera 29-2, a second camera 430, and a second camera) having an angle of view smaller than the angle of view of the first camera, RGB camera 620-1, second camera 720); (E.g., processor 120, processor 210), the at least one processor using the first camera to obtain a first image comprising one or
  • the at least one processor is configured to display at least one of the first image or the second image on a display (e.g., display 160, display 260, display 560 ). ≪ / RTI >
  • the at least one processor may be configured to display, on at least a portion of the first image, a graphics indicator (e.g., a graphics indicator 510) that indicates a position corresponding to the second image .
  • a graphics indicator e.g., a graphics indicator 510
  • the electronic device may include other image sensors (e. G., A mono image sensor 624 (e. G., A color image sensor) configured to receive light of at least a different wavelength than the image sensor (For example, a mirror 621-2) different from the mirror (for example, the mirror 621-1) for transmitting the light incident from the outside to the other image sensor, And a drive device (e.g., drive device 622-2) different from the drive device (e.g., drive device 622-1) capable of rotating the other mirror in at least one direction along at least one axis of rotation
  • a third camera e.g., a mono camera 452, a mono camera 620-2) having a view angle smaller than that of the first camera (e.g., the RGB camera 451, the RGB camera 620-1)
  • the at least one processor further uses an image obtained through the third camera, 2 may be configured to acquire images.
  • the second camera (e.g., second camera 720) includes a mirror (e.g., mirror 721); A drive device (e.g., drive device 722) that is capable of rotating the mirror in at least one direction along at least one axis of rotation; At least one lens (e.g., lens module 723) for collecting light reflected by the mirror; A light splitting element (e.g., a light splitting element 725) for passing a first portion of the light transmitted through the at least one lens and reflecting the second portion; A first image sensor (e.g., color image sensor 724-1) disposed on the path of light of the first portion to receive the first portion; And a second image sensor (e.g., a mono image sensor (724-2) disposed on the path of light of the second portion to receive the second portion and configured to receive light of at least a different wavelength from the first image sensor )).
  • a drive device e.g., drive device 722
  • At least one lens e.g., lens module 723
  • a light splitting element
  • the light splitting element may be configured to split the incident light such that the first portion and the second portion have different ratios.
  • the angle of view of the second camera may be set to be moved within an angle of view range of the first camera.
  • the at least one processor may be configured to vary the size of the image acquired by the image sensor of the second camera based on the degree of rotation of the mirror.
  • the electronic device further comprises at least one sensor (e.g., sensor module 240) that senses shaking of the electronic device, wherein the at least one processor is responsive to shaking of the electronic device , And can be configured to rotate the mirror through the driving device to obtain a shake-free image.
  • at least one sensor e.g., sensor module 240
  • the at least one processor is responsive to shaking of the electronic device , And can be configured to rotate the mirror through the driving device to obtain a shake-free image.
  • the electronic device further comprises at least one sensor (e.g., sensor module 240) that senses at least one of the speed and direction of movement of the electronic device, And controlling the rotation of the mirror based on a change in at least one of the determined moving speed and direction.
  • sensor module 240 e.g., sensor module 240
  • the second camera 29-2, the second camera 430, and the second camera 720 may include a mirror for changing the path of light incident from the outside : Mirror 721); A drive device (e.g., drive device 722) configured to rotate the mirror in at least one direction along at least one axis of rotation; At least one lens (e.g., lens module 723) for collecting light reflected through the mirror; A light splitting element (e.g., a light splitting element 725) for passing a first portion of light incident through the at least one lens and reflecting a second portion; A first image sensor (e.g., color image sensor 724-1) disposed on the path of light of the first portion to receive the first portion; And a second image sensor disposed on the path of light of the second portion to receive the second portion and configured to receive light of at least a different wavelength from the first image sensor.
  • a drive device e.g., drive device 722
  • At least one lens e.g., lens module 723
  • a light splitting element e.g., a light
  • the light splitting element may be configured to split the incident light such that the first portion and the second portion have an equal or different ratio.
  • the first image sensor may be a color image sensor and the second image sensor may be a mono image sensor.
  • FIG. 8 is a flowchart illustrating a method of acquiring an image of an electronic device according to an embodiment of the present invention.
  • a processor e.g., processor 120, processor 210) of an electronic device (e.g., electronic device 101, electronic device 201)
  • the first camera 440, the first camera 610, the first camera 710, the second camera 610, the first camera 610, ) To obtain a first image including an outer object.
  • the processor may activate a first camera to acquire a first image in response to a still image (e.g., a photograph) or a motion picture shooting request.
  • the first camera may be a wide angle camera having a first angle of view.
  • the first camera may not be movable in the angle of view, and may be a mirrorless camera that does not include a mirror.
  • the first camera may be a mirrorless camera capable of moving the angle of view, a mirror camera capable of moving the angle of view, or a mirror camera capable of moving the angle of view.
  • the processor in accordance with an embodiment of the present invention detects, in operation 803, a selection (e.g., a touch, a gesture, etc.) of at least some of the at least one object or at least a portion of the first image included in the first image can do.
  • a selection e.g., a touch, a gesture, etc.
  • the processor includes a mirror (e.g., a mirror 29-c), mirrors 621-1 and 621-2, a mirror (not shown) that is rotatable in at least one direction along at least one axis of rotation, (E.g., a second camera 29-2, a second camera 430, a second camera 450, a second camera 620, and a second camera 720)
  • a second camera 29-2 e.g., a second camera 29-2, a second camera 430, a second camera 450, a second camera 620, and a second camera 720
  • the processor may acquire a second image by moving a second angle of view of the second camera such that the selected object, or a portion thereof, is included at a second angle of view of the second camera.
  • the processor controls the driving device (e.g., the driving device 29d, the driving devices 622-1 and 622-2, and the driving device 722) to move the mirror in at least one direction .
  • the second camera may be a telephoto camera having a second angle of view smaller than the first angle of view. And the second angle of view of the second camera can be moved within the range of the first angle of view.
  • the first image and the second image may be displayed in various ways on a display (e.g., display 160, display 260, display 560) as a preview image, as described in Figures 5A-5C .
  • the first image and the second image may be stored as a still image or a moving image according to a user's selection.
  • the processor can track selected objects by checking (checking) that the selected object is moved and rotating the mirror in response to movement of the selected object.
  • the second camera may be activated with the first camera when a still image or motion picture shooting request is made.
  • the processor may check that some selected objects or some of the areas are included within a second angle of view of the second camera, and if some selected objects or some areas are not included within the second angle of view, ), Auditory (e.g., sound effect), or tactile (e.g., vibration).
  • Auditory e.g., sound effect
  • tactile e.g., vibration
  • FIG. 9 is a flowchart illustrating an image correction method of an electronic device according to an embodiment of the present invention.
  • a processor e.g., processor 120, processor 210) of an electronic device (e.g., electronic device 101, electronic device 201) . It is possible to detect activation of a camera capable of moving the angle of view. For example, the processor can verify that the photo or video recording function is activated.
  • the angle of view of the camera can be shifted corresponding to the rotation of the mirror which is rotatable in at least one direction.
  • the camera may be a second camera 29-2 of FIG. 2B, a camera 410 of FIG. 4A, a second camera 430 of FIG. 4B, a second camera 450 of FIG. 2 camera 620 or the second camera 720 of FIG. 7).
  • a processor in accordance with an embodiment of the present invention may acquire an image through a camera.
  • the processor may display the acquired image as a preview image (e.g., display 160, display 260, display 560).
  • a processor can confirm whether an angle of view change is requested.
  • the angle of view movement can be controlled by selecting an object or an area that is not located outside the angle of view of the camera or in the center of the angle of view of the camera, by moving the object being tracked, by a user command (such as touching a menu or soft button Can be requested.
  • the processor according to an embodiment of the present invention can proceed to the operation 909 described later.
  • the processor according to an embodiment of the present invention can correct the image based on the movement of the angle of view along the rotation of the mirror in 907 operation. A detailed description of the image correction method will be given later with reference to Figs. 10 and 11. Fig.
  • a processor in accordance with one embodiment of the present invention can verify that, in 909 operation, the camera is deactivated. For example, the processor can check if the photo or video recording function is disabled.
  • the processor according to an embodiment of the present invention may return to operation 903 and repeat the operation described above. On the other hand, if the camera is deactivated as a result of the determination of the 909 operation, the processor according to an embodiment of the present invention may terminate the image acquisition method.
  • FIG. 10 is a flowchart for explaining an image correction method of an electronic device according to an embodiment of the present invention.
  • FIG. 11A is a view for explaining an image correction method of an electronic device according to an embodiment of the present invention
  • FIG. 8 is a diagram for explaining a method of varying the image size according to the rotation of the mirror of the electronic device according to the embodiment of the present invention.
  • FIGS. 11A and 11B refer to the entire image data input through the lens, and the rectangle refers to image data obtained from the image sensor among the entire image data.
  • a processor e.g., processor 120, processor 210) of an electronic device (e.g., electronic device 101, electronic device 201) according to one embodiment of the present invention (E.g., the second image sensor 29f, the color image sensors 624-1, 724-1, and 622-1), if movement of the angle of view is detected (e.g., The mono image sensors 624-2 and 724-2) can increase the size of image data to be acquired.
  • the processor may increase the image data size to be acquired in proportion to the degree of rotation of the mirror.
  • the second camera 1120 can photograph the center of the first image 10 when the mirror is not rotated.
  • the second image 20 that has taken the center of the first image 10 may be a normal image without distortion (the object is not rotated).
  • the second angle of view of the second camera 1120 is shifted to the right, the second image obtained through the second camera 1120 is rotated to the right as shown in the figure of the identification code 1111 . This is because the image is rotated while the mirror is rotated for the angle of view of the second camera 1120, but the image sensor is not rotated.
  • a conventional electronic device can crop the distorted second image 1103 corresponding to the right rotation, as shown in the illustration of the identification code 1113.
  • the cropped image may include an area 1104 without image information.
  • the image sensor may have such a size that a region that does not acquire image information is not generated when the mirror is rotated.
  • the image sensor of the second camera 1120 may have sufficient margin to cover the maximum size of the image data that must be increased as the mirror rotates.
  • the processor may vary the size (range) of the image data to be acquired through the image sensor of the second camera 1120 based on the rotation of the mirror.
  • the pre-rotation image data 1151 of the mirror may have a size of a (length) * b (width).
  • the radius of the circle 1152 is "d”
  • the length (a) of the pre-rotation image data 1151 is "2 * d * sin ⁇ " * d * cos? ".
  • the processor can increase the size of the image data acquired by the image sensor.
  • the vertical size A of the increased image data 1153 is "2 * d * sin ( ⁇ + ⁇ )
  • the horizontal size (B) is "2 * d * cos ( ⁇ - ⁇ )”.
  • the processor may obtain image data of a maximum size through the image sensor of the second camera 1120, and may vary the crop range of the acquired image data according to the rotation of the mirror .
  • an area where image information can not be obtained occurs, (E.g., an area not obtained through the second camera 1120) from the image (first image) obtained through the second camera 1120.
  • a processor may extract an image (second image) from image data having an increased size.
  • a processor in accordance with an embodiment of the present invention may rotate the extracted image in the reverse direction at 1005 operation.
  • the processor may truncate the increased image data 1105 corresponding to the direction of rotation of the mirror, as shown in the figure of identification code 1115.
  • the processor can compensate for distortion due to rotation of the mirror by rotating the cut-out image 1106 in a reverse direction (e.g., leftward), as shown in the identification code 1117.
  • FIG. 12A is a view for explaining the anti-shake function of an electronic device according to an embodiment of the present invention
  • FIG. 12B is a view for explaining a gimbals function of an electronic device according to an embodiment of the present invention.
  • an electronic device can provide a camera shake correction function and a zoom ball function using a rotatable mirror.
  • one embodiment of the present invention can prevent the blurring of the captured image and improve the quality of the image by compensating the hand tremor by controlling the rotation of the mirror in correspondence with the hand tremble as shown in the figure of the identification code 1220 .
  • a large tremble occurs such as a body trembling at the time of photographing
  • a blur phenomenon occurs in the captured image, as shown in the figure of the identification code 1230, and the quality of the image may be greatly deteriorated.
  • An embodiment of the present invention can compensate for the swing of a relatively large electronic device such as a body trembling, and can provide a tremor function.
  • FIG. 13 is a flowchart illustrating a panoramic photographing method of an electronic device according to an embodiment of the present invention.
  • a processor e.g., processor 120, processor 210) of an electronic device (e.g., electronic device 101, electronic device 201) It is possible to detect a photographing request of the panoramic photograph.
  • a processor in accordance with one embodiment of the present invention may acquire at least one image continuously (e.g., at regular intervals) through a camera.
  • the camera may be capable of moving an angle of view through a mirror capable of rotating in at least one direction.
  • the camera may be a second camera 29-2 of FIG. 2B, a camera 410 of FIG. 4A, a second camera 430 of FIG. 4B, a second camera 450 of FIG. 2 camera 620 or the second camera 720 of FIG. 7).
  • a processor may detect the moving speed and moving direction of the electronic device.
  • a processor may detect the direction and speed of movement of an electronic device through various sensors (e.g., gyro sensors, geomagnetic sensors, acceleration sensors, etc.) included in the electronic device. Operation 1303 and operation 1305 can be performed simultaneously.
  • the processor according to an embodiment of the present invention can confirm whether the moving speed and moving direction of the electronic device are constant in operation 1307.
  • the processor can proceed to the operation 1311 described later.
  • the processor can control the rotation of the camera mirror in response to the change of the moving speed and the moving direction in operation 1309. For example, when the moving speed of the electronic device is slow, the processor controls the rotation of the mirror so that the angle of view of the camera is moved in the moving direction of the electronic device. When the speed of the electronic device is increased, It is possible to control the rotation of the mirror so as to be moved in the direction. Whereby at least one of the images can be obtained as if the electronic device moved at a constant speed without shaking in the direction of movement.
  • the processor according to an embodiment of the present invention can confirm, in 1311 operation, that the panoramic photographing is finished.
  • the processor can go to operation 1303 and repeat the above-described operations. If it is determined as a result of the operation 1311 that the end of the panoramic photographing is requested, the processor can end the panoramic photographing and combine the obtained images to generate a panoramic photograph.
  • 14A, 14B, and 14C are views for explaining a panoramic photographing method of an electronic device according to an embodiment of the present invention.
  • the user may move the electronic device in a particular direction (e.g., right) during panoramic photographing.
  • a particular direction e.g., right
  • the user may be unable to move the electronic device at a constant speed without shaking, as shown in Fig. 14A.
  • an electronic device is shaken up and down (e.g., in the tilting direction) and the speed of movement may be faster or slower than constant.
  • the processor can crop a portion of the images based on the tilting direction (vertical direction) to generate a panoramic picture.
  • the processor may include an upper portion and a lower portion of an Nth image, an N + 2th image, and an N + 3th image, an upper portion of an N + You can crop some, and create a panoramic picture.
  • conventional panoramic photographs may cause image loss depending on the moving direction (shaking) of the electronic device and the moving speed.
  • the electronic device controls the rotation of the mirror included in the camera in correspondence with the change of the moving direction and the moving speed of the electronic device, thereby generating images for generating a panoramic picture Can be obtained at regular intervals without shaking.
  • an embodiment of the present invention can prevent a problem that a superimposed area or a blank area occurs during panoramic photographing. Further, an embodiment of the present invention can prevent the problem of cutting out a part of images due to shaking of the electronic device.
  • a method of acquiring an image of an electronic device includes a first camera having a first angle of view (e.g., first camera 29-1, A first image including at least one outer object is generated using the first camera 410, the first camera 420, the first camera 440, the first camera 610, and the first camera 710) Acquiring operation; Detecting a selection of at least some of at least one of the at least one outer objects included in the first image or at least a portion of the first image; (E.g., a mirror (29-c), a mirror (621-1), and a mirror (721)) having a second angle of view smaller than the first angle of view and rotatable in at least one direction (Second camera 29-2, second camera 430, RGB camera 620-1, second camera 720) corresponds to the selected at least some object or the at least partial area And acquiring a second image in a state in which the mirror is rotated so as to
  • the method may include displaying at least some of the first image and the second image on at least a portion of a display (e.g., display 160, display 260, display 560) .
  • a display e.g., display 160, display 260, display 560
  • the method may further comprise displaying a graphical indicator (e.g., a graphical indicator 510) indicative of a position corresponding to the second image on at least a portion of the first image.
  • a graphical indicator e.g., a graphical indicator 510
  • the act of obtaining the second image includes varying a crop range of the image acquired through the image sensor of the second camera based on rotation of the mirror; Cropping a portion of the acquired image corresponding to the variable cropping range; And reversing the cropped image to obtain the second image.
  • the act of obtaining the second image includes varying the size of the image acquired through the image sensor of the second camera in proportion to the rotation of the mirror; Clipping a portion of the image of variable size; And reversing the cropped image to obtain the second image.
  • the method may further include rotating the mirror to perform shake correction, corresponding to shaking of the electronic device.
  • the method further comprises: detecting a panoramic photographing request; Detecting a change in at least one of a moving speed and a moving direction of the electronic device; And controlling rotation of the mirror based on a change in at least one of a moving speed and a moving direction of the electronic device to obtain at least one image for generating a panoramic photograph.
  • module includes a unit composed of, for example, a combination of one or more of hardware, software or firmware and includes, for example, logic, logical block, component, circuit, and the like.
  • a module may be an integrally constructed component or a minimum unit or part thereof that performs one or more functions. &Quot; Module " may be implemented either mechanically or electronically, for example, by application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs) And a programmable-logic device.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • At least some of the devices (e.g., modules or functions thereof) or methods (e.g., operations) according to various embodiments may be stored in a computer-readable storage media (e.g., For example, memory 130, memory 230).
  • a processor e.g., processor 120, processor 210
  • the processor may perform a function corresponding to the instruction.
  • the computer readable recording medium may be a hard disk, a floppy disk, a magnetic media (e.g., a magnetic tape), an optical media (e.g., a compact disc read only memory (CD-ROM) digital versatile discs, magneto-optical media (e.g., floptical disks), built-in memory, etc.
  • the instructions may be executed by code or an interpreter generated by the compiler. You can include the code you have.
  • Modules or program modules may include at least one or more of the elements described above, some of which may be omitted, or other elements. Operations performed by modules, program modules, or other components in accordance with various embodiments may be performed sequentially, in a parallel, repetitive, or heuristic manner, or at least some operations may be performed in a different order, Can be added.

Abstract

본 발명의 다양한 실시예들은 전자 장치 및 그의 이미지 획득 방법에 관한 것으로, 상기 전자 장치는 제 1 카메라; 이미지 센서, 외부로부터 입사된 광을 상기 이미지 센서로 전달하기 위한 미러, 및 적어도 하나의 회전축에 따라 적어도 하나의 방향으로 상기 미러를 회전시킬 수 있는 구동 장치를 포함하며, 상기 제1카메라의 화각보다 작은 화각을 갖는 제 2 카메라; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제 1 카메라를 이용하여, 하나 이상의 외부 객체들 포함하는 제 1 이미지를 획득하고, 상기 제 1 이미지에 포함된 하나 이상의 외부 객체들 중 적어도 일부 객체 또는 상기 제 1 이미지 중 적어도 일부 영역을 선택하고, 및 상기 제 2 카메라의 화각이 상기 선택된 적어도 일부 객체 또는 상기 적어도 일부 영역에 대응하는 위치로 이동되도록 상기 구동 장치에 의해 상기 미러가 회전된 상태로 제 2 이미지를 획득하도록 설정될 수 있다. 그 밖의 다양한 실시예들이 가능하다.

Description

미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치
본 발명의 다양한 실시예들은 구동 장치에 의해 회전 가능한 미러를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치에 관한 것이다.
전자 장치들(예: 이동 단말기, 스마트 폰, 착용형(wearable) 장치 등)은 다양한 기능을 제공할 수 있다. 예를 들어, 스마트 폰은 기본적인 음성 통신 기능에 추가적으로, 근거리 무선 통신(예: 블루투스(bluetooth), 와이파이(Wi-Fi), 또는 NFC (near field communication) 등) 기능, 이동 통신(3G(generation), 4G, 5G 등) 기능, 음악 또는 동영상 재생 기능, 촬영 기능, 또는 길 안내 기능 등을 제공할 수 있다.
최근에는 피사체를 추적할 수 있는 팬-틸트(pan-tilt) 카메라에 대한 관심이 증가하고 있다. 피사체 추적 기능을 제공하기 위해서, 카메라는 화각을 이동할 수 있어야 한다. 일반적으로, 카메라는 카메라 모듈을 전체적으로 회전시키는 모듈 회전 방식, 또는 카메라 모듈의 내부에 위치하며 입사된 광의 축(광 축)을 변경하여 이미지 센서로 광을 전달하기 위한 미러를 회전시키는 미러 회전 방식을 통해 화각을 이동시킬 수 있다.
카메라 모듈 전체를 회전하여 팬-틸트(pan-tilt) 기능을 제공하는 모듈 회전 방식은 카메라 모듈의 회전 반경을 확보해야 하기 때문에, 실장 공간을 많이 필요로 하여, 최근의 슬림화된 전자 장치(예: 스마트 폰)에 적용하기 어려울 수 있다.
한편, 미러를 회전하여 팬-틸트 기능을 제공하는 미러 회전 방식은 미러의 회전 공간을 확보해야 하기 때문에 카메라 모듈을 슬림화하기 어려울 수 있다. 또한, 미러 회전 방식은 이미지 센서의 회전없이, 미러만 회전함에 따라 이미지의 왜곡 현상이 발생할 수 있다.
상술한 문제점들을 해결하기 위한 본 발명의 다양한 실시예들은 미러 회전 방식의 카메라 모듈에서 미러의 사이즈를 감소하여 카메라 모듈을 슬림화할 수 있다.
또한, 본 발명의 다양한 실시예들은 미러의 회전에 의한 이미지 왜곡을 보정할 수 있다.
또한, 본 발명의 다양한 실시예들은 미러의 회전을 이용하여 손 떨림 보정 기능 및 짐벌 기능을 제공할 수 있다.
또한, 본 발명의 다양한 실시예들은 전자 장치의 이동 속도 및/또는 이동 방향에 기반하여, 미러를 적절히 회전하여 효율적으로 파노라마 사진을 촬영할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는 제 1 카메라; 이미지 센서, 외부로부터 입사된 광을 상기 이미지 센서로 전달하기 위한 미러, 및 적어도 하나의 회전축에 따라 적어도 하나의 방향으로 상기 미러를 회전시킬 수 있는 구동 장치를 포함하며, 상기 제1카메라의 화각보다 작은 화각을 갖는 제 2 카메라; 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제 1 카메라를 이용하여, 하나 이상의 외부 객체들 포함하는 제 1 이미지를 획득하고, 상기 제 1 이미지에 포함된 상기 하나 이상의 외부 객체들 중 적어도 일부 객체, 또는 상기 제 1 이미지 중 적어도 일부 영역을 선택하고, 및 상기 제 2 카메라의 화각이 상기 선택된 적어도 일부 객체 또는 상기 적어도 일부 영역에 대응하는 위치로 이동되도록, 상기 구동 장치에 의해 상기 미러가 회전된 상태로 제 2 이미지를 획득하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 이미지 획득 방법은 제 1 화각을 가지는 제 1 카메라를 이용하여 적어도 하나의 외부 객체를 포함하는 제 1 이미지를 획득하는 동작; 상기 제 1 이미지에 포함된 적어도 하나의 외부 객체들 중 적어도 일부 객체 또는 상기 제 1 이미지 중 적어도 일부 영역의 선택을 감지하는 동작; 및 상기 제 1 화각보다 작은 제 2 화각을 가지며, 적어도 한 방향으로 회전 가능한 미러를 포함하는 제 2 카메라의 제 2 화각이 상기 선택된 적어도 일부 객체 또는 상기 적어도 일부 영역에 대응하는 위치를 향하도록 상기 미러가 회전된 상태에서 제 2 이미지를 획득하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 카메라 장치는 외부로부터 입사된 광의 경로를 변경하기 위한 미러; 적어도 하나의 회전축에 따라 적어도 한 방향으로 상기 미러를 회전하도록 설정된 구동 장치; 상기 미러를 통해 반사된 광을 모으기 위한 적어도 하나의 렌즈; 상기 적어도 하나의 렌즈를 통해 입사되는 광의 제 1 일부는 통과시키고, 제 2 일부는 반사 시키기 위한 광 분할 소자; 상기 제 1 일부를 수신하도록 상기 제 1 일부의 광의 이동 경로 상에 배치된 제 1 이미지 센서; 및 상기 제 2 일부를 수신하도록 상기 제 2 일부의 광의 이동 경로 상에 배치되고, 상기 제 1 이미지 센서와는 적어도 다른 파장의 광을 수신하도록 설정된 제 2 이미지 센서를 포함할 수 있다.
본 발명의 다양한 실시예들은 미러 회전 방식의 카메라를 컬러(RGB) 카메라와 모노(mono) 카메라를 포함하는 멀티 카메라로 구성하여 미러 사이즈를 최소화하고, 슬림화할 수 있다. 또한, 본 발명의 실시예에 따른 멀티 카메라가 렌즈, 미러 등을 공유하도록 하여 실장 공간을 감소할 수 있다.
또한, 본 발명의 다양한 실시예들은 미러의 회전에 의한 이미지 회전을 보상하여, 이미지 손실을 방지할 수 있다.
또한, 본 발명의 다양한 실시예들은 별도의 손 떨림 보정 장치 없이 미러의 회전을 제어하여 손 떨림 보정 기능 및 짐벌 기능을 제공할 수 있다.
또한, 본 발명의 다양한 실시예들은 파노라마 촬영 시 전자 장치의 이동 속도 및/또는 이동 방향에 기반하여, 미러를 적절히 회전하여, 이미지들의 적어도 일부가 중첩(중복)되거나 촬영되지 않는 영역이 생성되는 것을 방지할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른, 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2a는 다양한 실시예에 따른 전자 장치의 블록도이다.
도 2b는 카메라 모듈을 도시한 블록도이다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도이다.
도 4a는 본 발명의 한 실시예에 따른 전자 장치를 도시한 도면이다.
도 4b는 본 발명의 다른 실시예에 따른 전자 장치를 도시한 도면이다.
도 4c는 본 발명의 또 다른 실시예에 따른 전자 장치를 도신한 도면이다.
도 5a는 본 발명의 한 실시예에 따른 전자 장치의 유저 인터페이스를 도시한 도면이다.
도 5b는 본 발명의 다른 실시예에 따른 전자 장치의 유저 인터페이스를 도시한 도면이다.
도 5c는 본 발명의 또 다른 실시예에 따른 전자 장치의 유저 인터페이스를 도시한 도면이다.
도 6a는 본 발명의 한 실시예에 따른 카메라 모듈의 구조를 도시하는 도면이다.
도 6b는 본 발명의 한 실시예에 따른 미러의 회전 예를 설명하는 도면이다.
도 7은 본 발명의 다른 실시예에 따른 카메라 모듈의 구조를 도시하는 도면이다.
도 8은 본 발명의 한 실시예에 따른 전자 장치의 이미지 획득 방법을 설명하는 흐름도이다.
도 9는 본 발명의 한 실시예에 따른 전자 장치의 이미지 보정 방법을 설명하는 흐름도이다.
도 10은 본 발명의 한 실시예에 따른 전자 장치의 이미지 보정 방법을 상세히 설명하는 흐름도이다.
도 11a는 본 발명의 한 실시예에 따른 전자 장치의 이미지 보정 방법을 설명하기 위한 도면이다.
도 11b는 본 발명의 한 실시예에 따른 전자 장치의 미러의 회전에 따라 이미지 크기를 가변하는 방법을 설명하기 위한 도면이다.
도 12a는 본 발명의 한 실시예에 따른 전자 장치의 손 떨림 보정 기능을 설명하는 도면이다.
도 12b는 본 발명의 한 실시예에 따른 전자 장치의 짐벌 기능을 설명하는 도면이다.
도 13은 본 발명의 한 실시예에 따른 전자 장치의 파노라마 사진 촬영 방법을 설명하는 흐름도이다.
도 14a, 14b 및 14c는 본 발명의 한 실시예에 따른 전자 장치의 파노라마 사진 촬영 방법을 설명하기 위한 도면이다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째," 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크톱 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른, 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 1을 참조하여, 다양한 실시예에서의, 네트워크 환경(100) 내의 전자 장치(101)가 기재된다. 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. 버스(110)는 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다. 프로세서(120)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(API)(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API(145)는 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다. 입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다. 통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시예에 따르면, 무선 통신은, 예를 들면, 도 1의 element 164로 예시된 바와 같이, WiFi(wireless fidelity), LiFi(light fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한실시예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예에 따른 전자 장치(201)의 블록도이다. 전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP)(210), 통신 모듈(220), (가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다. 프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드)하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
프로세서(210)는 전자 장치(201)의 카메라 모듈(291)을 이용한 정지 영상 또는 동영상의 촬영과 관련된 동작들을 제어할 수 있다. 본 발명의 다양한 실시예들에 따르면, 프로세서(210)는 카메라 모듈(291)의 화각을 제어(예: 이동)할 수 있다. 예를 들어, 프로세서(210)는 카메라 모듈(291)에 포함된 미러를 적어도 한 방향으로 회전시켜 화각을 이동시킬 수 있다. 프로세서(210)는 카메라 모듈(291)의 화각 이동을 제어하여 피사체를 추적할 수 있다. 어떤 실시예에 따르면, 프로세서(210)는 미러의 회전에 따른 이미지 왜곡을 보정할 수 있다. 다른 실시예에 따르면, 프로세서(210)는 미러의 회전을 이용하여 손떨림 보정 기능, 팬-틸트 기능 및/또는 짐볼(gimbol) 기능을 제공할 수 있다. 또 다른 실시예에 따르면, 프로세서(210)는 파노라마 사진 촬영 시 전자 장치의 이동 방향 및/또는 이동 속도를 고려하여 파노라마 사진을 생성하기 위한 적어도 하나의 이미지를 균일하게 획득할 수 있도록 미러의 회전을 제어할 수 있다. 프로세서(210)에 대한 상세한 설명은 후술하기로 한다.
통신 모듈(220)(예: 통신 인터페이스(170))와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227), NFC 모듈(228) 및 RF 모듈(229)를 포함할 수 있다. 셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP)를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버, PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. 가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브 (SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 등을 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 또는 물리적으로 연결될 수 있다.
메모리(230)는 전자 장치(201)의 하우징 내부에 위치하며, 프로세서(210)와 기능적 또는 전기적으로 연결될 수 있다. 메모리(230)는 다양한 프로그램들을 저장할 수 있고, 상기 다양한 프로그램들을 수행하는 중에 발생되는 데이터 또는 다운로드된 데이터 등을 저장할 수 있다. 메모리(230)는 프로세서(210)를 동작시키기 위한 다양한 명령(command) 및/또는 인스트럭션(instruction)들을 저장할 수 있다.
본 발명의 다양한 실시예들에 따르면, 메모리(230)는 전자 장치(201)의 카메라 모듈(291)의 정지 영상 또는 동영상의 촬영과 관련된 동작들을 제어하기 위한 다양한 프로그램을 저장할 수 있다. 예를 들어, 메모리(230)는 피사체를 추적(tracking)하기 위하여 카메라 모듈(291)의 화각 이동을 제어하는 프로그램, 미러의 회전에 따른 이미지 왜곡을 보정하는 프로그램, 미러의 회전을 이용한 손떨림 보정 기능, 팬-틸트 기능 및/또는 짐볼(gimbol) 기능을 제공하는 프로그램, 파노라마 사진 촬영 시 미러의 회전을 제어하는 프로그램 등을 저장할 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(240)은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
센서 모듈(240)은 전자 장치(201)의 흔들림(예: 손 떨림)을 감지할 수 있다. 예를 들어, 센서 모듈(240)은 사진 촬영 또는 동영상 촬영 시 전자 장치(201)의 요(yaw), 피치(pitch), 또는 롤(roll) 중 적어도 한 방향의 흔들림에 따른 센싱 정보(예: 센서 값)을 프로세서(210)로 전달할 수 있다. 어떤 실시예에 따르면, 센서 모듈(240)은 파노라마 사진 촬영 시 전자 장치(201)의 움직임(예: 이동 방향, 이동 속도, 흔들림 등)에 따라 계측 또는 감지되는 센싱 정보(예: 센서 값)을 프로세서(210)로 전달할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(252), (디지털) 펜 센서(254), 키(256), 또는 초음파 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 프로젝터(266), 및/또는 이들을 제어하기 위한 제어 회로를 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나 이상의 모듈로 구성될 수 있다. 한 실시예에 따르면, 패널(262)은 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(또는 포스 센서)를 포함할 수 있다. 상기 압력 센서는 터치 패널(252)과 일체형으로 구현되거나, 또는 터치 패널(252)과는 별도의 하나 이상의 센서로 구현될 수 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다. 인터페이스(270)는, 예를 들면, HDMI(272), USB(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(170)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
디스플레이(260)는 다수의 카메라를 이용한 사진 촬영 또는 동영상 촬영을 제어하기 위한 다양한 유저 인터페이스(user interface)를 표시할 수 있다. 예를 들어, 디스플레이(260)는 카메라 모듈(291)을 통해 획득되는 프리뷰 이미지를 표시할 수 있다. 어떤 실시예에 따르면, 디스플레이(260)는 상이한 화각을 가지는 다수의 카메라를 통해 획득되는 다수의 이미지들 중 적어도 하나를 다양한 방식(예: PBP(picture by picture), PIP(picture in picture), 다중 화면(multi-view) 등)으로 표시할 수 있다. 이에 대한 상세한 설명은 도 5a 내지 도 5c를 참조하여 후술하기로 한다.
오디오 모듈(280)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(145)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(291)은, 예를 들면, 정지 영상(예: 사진, 파노라마 사진) 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
본 발명의 한 실시예에 따른 카메라 모듈(291)은 화각을 이동할 수 있는 적어도 하나의 카메라를 포함할 수 있다. 예를 들어, 카메라 모듈(291)은 도 2b에 도시된 바와 같이 제 1 화각을 가지며, 제 1 화각을 이동할 수 없는 제 1 카메라 및 제 1 화각보다 작은 제 2 화각을 가지며, 제 2 화각을 이동할 수 있는 제 2 카메라를 포함할 수 있다.
도 2b를 참조하면, 제 1 카메라(29-1)는 제 1 렌즈 모듈(29a) 및 제 1 이미지 센서(29b)를 포함할 수 있다. 제 1 렌즈 모듈(29a)은 입사되는 광을 모으거나 확산하는 적어도 하나의 렌즈를 포함할 수 있다. 제 1 렌즈 모듈(29a)은 광각 렌즈(wide-angle lens)일 수 있다. 제 1 이미지 센서(29b)는 제 1 렌즈 모듈(29a)을 통해 입사된 광을 이미지 데이터로 변환할 수 있다. 도 2b에서는 제 1 카메라(29-1)가 미러리스 카메라인 것으로 도시하였지만, 어떤 실시예에 따르면, 제 1 카메라(29-1)는 외부로부터 입사되는 광을 제 1 이미지 센서(29b)로 전달(예: 반사)하는 미러(미도시)를 더 포함할 수 있다.
제2카메라(29-2)는 미러(29c), 구동 장치(29d), 제 2 렌즈 모듈(29e) 및 제 2 이미지 센서(29f)를 포함할 수 있다. 미러(29c)는 외부로부터 입사되는 광을 제 2 이미지 센서(29f)로 전달할 수 있다. 구동 장치(29d)는 적어도 하나의 회전축에 따라 적어도 한 방향으로 미러(29c)를 회전할 수 있다. 제 2 렌즈 모듈(29e)은 미러(29c)로부터 반사된 광을 모으거나 확산할 수 있다. 제 2 렌즈 모듈(29e)은 망원 렌즈(telephoto lens)일 수 있다. 제 2 이미지 센서(29f)는 제 2 렌즈 모듈(29e)을 통해 입사된 광을 설정된 크기의 이미지 데이터로 변환할 수 있다. 제 2 이미지 센서(29f)는 미러(29c)의 회전에 따라 이미지 데이터의 크기를 가변할 수 있다. 이에 대한 상세한 설명은 도 10 및 도 11을 참조하여 후술하기로 한다.
어떤 실시예에 따르면, 카메라 모듈(291)은 제 1 화각을 갖는, 제 1 카메라 및 제 2 화각을 가지며, 화각을 이동할 수 있는 제 2 카메라를 포함할 수 있다. 제 1 화각은 제 2 화각보다 큰 값을 가질 수 있다. 예를 들어, 제 1 카메라는 60 도 이상의 화각을 가지는 광각 카메라이고, 제 2 카메라는 30 도 이하의 화각을 가지는 망원 카메라 일 수 있다. 다른 예로, 제 1 카메라는 광각 카메라이고, 제 2 카메라는 50 도 정도의 화각을 가지는 표준(standard) 카메라 일 수 있다. 또 다른 예로, 제 1 카메라는 표준 카메라이고, 제 2 카메라는 망원 카메라 일 수 있다. 상술한 광각 카메라, 표준 카메라 및 망원 카메라의 화각은 본 발명의 기술 분야에서 일반적으로 사용되는 일 예일 뿐, 본 발명의 다양한 실시예를 한정하지 않는다.
어떤 실시예에 따르면, 카메라 모듈(291)은 제 1 화각을 갖는 적어도 하나의 제 1 카메라를 포함하거나, 제 2 화각을 가지며, 화각 이동이 가능한 적어도 하나의 제 2 카메라를 포함할 수 있다.
어떤 실시예에 따르면, 제 1 카메라(29-1)와 제 2 카메라(29-2)는 각각 하나의 카메라 모듈(291)로서 구성될 수 있다.
어떤 실시예에 따르면, 제 1 카메라(29-1) 및 제 2 카메라(29-2) 중 적어도 하나의 카메라는 컬러(RGB) 카메라와 모노(mono) 카메라를 포함하는 멀티 카메라로 구현될 수 있다. 여기서, 제 1 카메라 또는 제 2 카메라를 RGB 카메라와 모노 카메라를 포함하는 멀티 카메라로 구현하는 것은 본 발명의 기술 분야에서 널리 알려진 기술로 상세한 설명을 생략하기로 한다.
전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC, 또는 배터리 또는 연료 게이지를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지 및/또는 태양 전지를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동, 또는 햅틱 효과 등을 발생시킬 수 있다. 전자 장치(201)는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있는 모바일 TV 지원 장치(예: GPU)를 포함할 수 있다. 본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치(예: 전자 장치(201))는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함하거나, 또는, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도이다. 한 실시예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101))에 관련된 자원을 제어하는 운영 체제 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 도 3을 참조하면, 프로그램 모듈(310)은 커널(320)(예: 커널(141)), 미들웨어(330)(예: 미들웨어(143)), (API(360)(예: API(145)), 및/또는 어플리케이션(370)(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드 가능하다.
커널(320)은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수를 수행할 수 있다. 한 실시예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부를 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다. 미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330) 는 런타임 라이브러리(335), 어플리케이션 매니저(341), 윈도우 매니저(342), 멀티미디어 매니저(343), 리소스 매니저(344), 파워 매니저(345), 데이터베이스 매니저(346), 패키지 매니저(347), 커넥티비티 매니저(348), 노티피케이션 매니저(349), 로케이션 매니저(350), 그래픽 매니저(351), 또는 시큐리티 매니저(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수 처리를 수행할 수 있다. 어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370)의 생명 주기를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용되는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱을 이용하여 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370)의 소스 코드 또는 메모리의 공간을 관리할 수 있다. 파워 매니저(345)는, 예를 들면, 배터리의 용량, 온도 또는 전원을 관리하고, 이 중 해당 정보를 이용하여 전자 장치의 동작에 필요한 전력 정보를 결정 또는 제공할 수 있다. 한 실시예에 따르면, 파워 매니저(345)는 바이오스(BIOS: basic input/output system)와 연동할 수 있다. 데이터베이스 매니저(346)는, 예를 들면, 어플리케이션(370)에서 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다.
커넥티비티 매니저(348)는, 예를 들면, 무선 연결을 관리할 수 있다. 노티피케이션 매니저(349)는, 예를 들면, 도착 메시지, 약속, 근접성 알림 등의 이벤트를 사용자에게 제공할 수 있다. 로케이션 매니저(350)는, 예를 들면, 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는, 예를 들면, 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화(telephony) 매니저 또는 전술된 구성요소들의 기능들의 조합을 형성할 수 있는 하는 미들웨어 모듈을 포함할 수 있다. 한 실시예에 따르면, 미들웨어(330)는 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. API(360)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 와치(384), 헬스 케어(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보(예: 기압, 습도, 또는 온도 정보) 제공 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리 어플리케이션을 포함할 수 있다. 예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션에서 발생된 알림 정보를 외부 전자 장치로 전달하거나, 또는 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 또는 외부 전자 장치에서 동작하는 어플리케이션을 설치, 삭제, 또는 갱신할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션)을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치로부터 수신된 어플리케이션을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어(예: 프로세서(210)), 또는 이들 중 적어도 둘 이상의 조합으로 구현(예: 실행)될 수 있으며, 하나 이상의 기능을 수행하기 위한 모듈, 프로그램, 루틴, 명령어 세트 또는 프로세스를 포함할 수 있다.
도 4a는 본 발명의 한 실시예에 따른 전자 장치를 도시한 도면이다.
도 4a를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))는 후면에 카메라(410)(예: 카메라 모듈(291)) 및 플래쉬(411)를 실장할 수 있다. 어떤 실시예에 따르면, 카메라(410)는 전자 장치의 전면 또는 측면에 위치할 수 있다.
본 발명의 한 실시예에 따른 카메라(410)는 설정된 크기의 화각(41)을 가지며, 카메라(410)의 화각(41)은 이동될 수 있다. 예를 들어, 카메라(410)는 내부에 포함된 미러(미도시)를 요(yaw), 피치(pitch) 또는 롤(roll) 중 적어도 한 방향으로 회전시켜 식별 부호 41-1 또는 41-2과 같이 화각(41)을 이동할 수 있다.
도 4b는 본 발명의 다른 실시예에 따른 전자 장치를 도시한 도면이다.
도 4b를 참조하면, 본 발명의 다른 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))는 제 1 카메라(420), 플래쉬(421), 및 제 2 카메라(430)를 포함할 수 있다.
제 1 카메라(420)는 제 1 화각(42)을 가지며, 제 1 화각(42)을 이동할 수 없는 광각 카메라 또는 표준 카메라일 수 있다. 제 1 카메라(420)는 제 1 이미지를 획득할 수 있다. 어떤 실시예에 따르면, 제 1 카메라(420)는 제 1 화각을 이동할 수 있다.
제 2 카메라(430)는 제 1 화각(42)보다 작은 제 2 화각(43)을 가지며, 미러(미도시)를 회전시켜 제2 화각(43)을 이동시킬 수 있다. 예를 들어, 제2 카메라(430)는 표준 카메라 또는 망원 카메라일 수 있다. 제 2 카메라(430)는 제 1 화각(42) 범위 내에서 제 2 화각(43)을 이동시킬 수 있다. 예를 들어, 제 2 카메라(430)의 제 2 화각(43)은 미러의 회전에 대응하여 식별 부호 43-1 또는 43-2와 같이 이동될 수 있다. 제 2 카메라(430)는 제 1 카메라(420)를 통해 획득되는 제 1 이미지에 포함된 피사체들 중 선택된 적어도 일부 객체 또는 선택된 적어도 일부 영역에 대응하는 제 2 이미지를 획득할 수 있다. 어떤 실시예에 따르면, 제 2 카메라(430)는 선택된 객체를 추적하여 제 2 이미지를 획득할 수 있다.
도 4c는 본 발명의 또 다른 실시예에 따른 전자 장치를 도시한 도면이다.
도 4c를 참조하면, 본 발명의 또 다른 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))는 제 1 카메라(440), 플래쉬(441), 및 제 2 카메라(450)를 포함할 수 있다.
제 1 카메라(440)는 제 1 화각(44)을 가지며, 제 1 화각(44)을 이동할 수 없는 광각 카메라 또는 표준 카메라일 수 있다. 제 1 카메라(440)는 제 1 이미지를 획득할 수 있다. 어떤 실시예에 따르면, 제 1 카메라(440)는 제 1 화각(44)을 이동할 수 있다.
제 2 카메라(450)는 제 1 화각(44)보다 작은 제 2 화각(45)을 가지는 표준 카메라 또는 망원 카메라일 수 있다. 본 발명의 실시예에 따른 제 2 카메라(450)는 RGB 카메라(451) 및 모노 카메라(452)를 포함할 수 있다. RGB 카메라(451) 및 모노 카메라(452)는 동일한 제 2 화각(45)을 가지며, 제 2 화각(45)은 미러(미도시)의 회전에 따라 식별 부호 45-1 및 45-2와 같이 이동될 수 있다.
RGB 카메라(451) 및 모노 카메라(452)는 적어도 다른 파장의 광을 수광하도록 설정된 이미지 센서를 포함할 수 있다. 예를 들어, RGB 카메라(451)는 컬러 정보 및 색의 선명도를 획득할 수 있고, 모노 카메라(452)는 명암의 디테일을 획득할 수 있다. 제 2 카메라(450)는 모노 카메라(452)를 통해 획득된 이미지에 RGB 카메라(451)를 통해 획득된 컬러 정보를 추가하여 제 2 이미지를 획득할 수 있다.
도 5a는 본 발명의 한 실시예에 따른 전자 장치의 유저 인터페이스를 도시한 도면이다.
도 5a를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))는 사진 또는 동영상 촬영 요청 시 제 1 카메라 및 제 2 카메라를 통해 각각 획득되는 제 1 이미지 및 제 2 이미지를 다중 화면(예: 듀얼 뷰) 또는 PBP(picture by picture) 방식을 통해 디스플레이(560)에 표시할 수 있다. 예를 들어, 전자 장치는 제 1 카메라를 통해 획득되는 제 1 이미지를 제 1 영역(501)에 표시할 수 있고, 제 2 카메라를 통해 획득되는 제 2 이미지를 제 2 영역(502)에 표시할 수 있다. 어떤 실시예에 따르면, 전자 장치는 제 1 카메라를 통해 획득되는 제 1 이미지를 제 2 영역(502)에 표시할 수 있고, 제 2 카메라를 통해 획득되는 제 2 이미지를 제 1 영역(501)에 표시할 수 있다.
제 1 영역(501) 및 제 2 영역(502)은 동일한 크기를 가질 수 있다. 어떤 실시예에 따르면, 제 1 영역(501) 및 제 2 영역(502)은 상이한 크기를 가질 수 있다. 또 다른 실시예에 따르면, 제 1 영역(501) 및 제 2 영역(502)의 크기는 사용자에 의해 자유롭게 변경될 수 있다.
어떤 실시예에 따르면, 전자 장치는 사용자의 요청(명령)에 따라 제 1 영역(501) 및 제 2 영역(502)에 표시되는 이미지를 상호 변경(스위칭)할 수 있다.
제 1 이미지 및 제 2 이미지는 프리뷰 이미지로, 선택적으로 촬영 또는 녹화될 수 있다. 예를 들어, 제 1 이미지 및 제 2 이미지는 제 1 영역(501) 및 제 2 영역(502)의 주변(또는 내부)에 위치하는 촬영 또는 녹화 메뉴 키, 또는 전자 장치의 하우징에 위치하는 물리적 버튼의 입력 시 촬영 또는 녹화될 수 있다.
제 2 이미지는 제 1 이미지에 포함된 적어도 하나의 객체 중 선택된 적어도 일부 객체 또는 선택된 일부 영역에 대응하는 이미지일 수 있다. 전자 장치는 제 1 영역(501)에 표시된 제 1 이미지의 적어도 일부에 제 2 이미지에 대응하는 위치를 나타내는 그래픽 인디케이터(510)를 표시할 수 있다. 사용자는 상기 인디케이터(510)를 통해 제 2 카메라의 촬영 범위를 용이하게 인지할 수 있다.
어떤 실시예에 따르면, 전자 장치는 제 2 카메라의 화각을 이동시키면서 선택된 객체를 추적하여 제 2 이미지를 획득될 수 있다. 상기 객체가 이동 가능한 화각 범위를 벗어나 추적이 불가능한 경우 전자 장치는 알람 메시지를 다양한 방식(예: 시각, 청각, 촉각 등)으로 제공할 수 있다.
도 5b는 본 발명의 다른 실시예에 따른 전자 장치의 유저 인터페이스를 도시한 도면이다.
도 5b를 참조하면, 본 발명의 다른 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))는 사진 또는 동영상 촬영 요청 시 제 1 카메라 및 제 2 카메라를 통해 각각 획득되는 제 1 이미지 및 제 2 이미지를 PIP 방식을 통해 디스플레이(560)에 표시할 수 있다. 예를 들어, 전자 장치는 제 2 카메라를 통해 획득되는 제 2 이미지를 전체 화면(511)으로 표시할 수 있고, 제 1 카메라를 통해 획득되는 제 1 이미지를 보조 화면(512)에 표시할 수 있다. 어떤 실시예에 따르면, 전자 장치는 제 1 카메라를 통해 획득되는 제 1 이미지를 전체 화면(511)으로 표시하고, 제 2 카메라를 통해 획득되는 제 2 이미지를 보조 화면(512)으로 표시할 수 있다.
보조 화면(512)의 크기 및 위치는 사용자에 의해 변경 가능하다. 전체 화면(511) 및 보조 화면(512)에 표시되는 이미지는 사용자에 의해 상호 변경될 수 있다. 제 1 이미지 및 제 2 이미지는 선택적으로 촬영 또는 녹화될 수 있다.
한 실시예에 따르면, 전자 장치의 사용자는 제 1 카메라를 뷰 파인더(예: electrical view finder (EVF))로 활용할 수 있다. 예를 들어, 전자 장치의 사용자는 제 1 카메라를 통해 획득되는 제 1 이미지를 통해 대략적인 촬영 위치를 확인하고, 제 1 이미지 중 특정 객체 또는 영역을 선택(예: 터치)하여, 제 2 카메라를 통해 상기 선택된 객체 또는 위치를 촬영할 수 있다. 이때, 전자 장치는 제 2 카메라의 화각이 상기 선택된 객체 또는 위치를 향하도록 제 2 카메라의 미러를 회전시킬 수 있다.
도 5c는 본 발명의 또 다른 실시예에 따른 전자 장치의 유저 인터페이스를 도시한 도면이다.
상기 도 5c를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))는 제 1 카메라 및 제 2 카메라를 통해 각각 획득되는 제 1 이미지 및 제 2 이미지를 토글(toggle) 방식으로 디스플레이(560)에 표시할 수 있다. 예를 들어, 전자 장치는 제 1 이미지를 전체 화면으로 표시한 상태에서 설정된 입력(예: 토글 버튼 터치, 제스처 입력 등) 감지 시 제 2 이미지를 전체 화면으로 표시할 수 있고, 설정된 입력의 재감지 시 제 1 이미지를 전체 화면으로 다시 표시할 수 있다.
한 실시예에 따르면, 전자 장치는 디지털 줌 및 광학 줌을 이용하여 제 1 이미지의 줌 인/아웃(zoom in/out) 기능을 제공할 수 있다. 예를 들어, 전자 장치는, 식별 부호 513과 같이, 제 1 이미지의 특정 위치에서 줌 인이 요청되는 경우 디지털 줌 기능을 이용하여 제 1 이미지를 확대할 수 있다. 전자 장치는 제 2 카메라가 상기 특정 위치를 촬영하도록 제 2 카메라의 화각을 이동시킬 수 있다.
전자 장치는 제 1 이미지가 제 2 카메라를 통해 획득되는 제 2 이미지에 대응하는 크기로 확대되는 경우 제 2 카메라의 광학 줌 기능을 이용하여 제 1 이미지에 대한 줌 인 기능을 제공할 수 있다. 전자 장치는 제 2 카메라의 광학 줌 능력 이상으로 줌 인이 요청되는 경우 제 2 카메라의 디지털 줌을 통해 줌 인 기능을 제공할 수 있다. 예를 들어, 제 1 카메라가 디지털 줌만을 제공하며, 제 1 이미지의 5 배 줌 이미지가 제 2 이미지에 대응하며, 제 2 카메라가 3 배의 광학 줌 및 10 배의 디지털 줌 기능을 제공하는 것으로 가정하면, 전자 장치는 제 1 카메라의 디지털 줌 기능을 통해 제 1 이미지의 2 배 내지 5 배 줌 이미지를 제공할 수 있다. 어떤 실시예에 따르면, 전자 장치는 제 2 카메라를 통해 획득되는 제 2 이미지를 제 1 이미지의 5 배 줌 이미지로 표시할 수 있다. 전자 장치는 제 2 카메라의 광학 줌 기능을 통해 제 1 이미지의 6 배 내지 8 배 줌 이미지를 제공하며, 제 2 카메라의 디지털 줌 기능을 통해 제 1 이미지의 9 배 내지 18 배의 줌 이미지를 제공할 수 있다.
도 6a는 본 발명의 한 실시예에 따른 카메라 모듈의 구조를 도시하는 도면이고, 도 6b는 본 발명의 한 실시예에 따른 미러의 회전 예를 설명하는 도면이다.
도 6a 및 6b를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))는 제1 카메라(610) 및 제2 카메라(620)를 포함할 수 있다.
제 1 카메라(610)는 미러를 포함하지 않으며, 제 1 화각(601)(예: 제 1 화각(42 또는 44))을 가질 수 있다. 제 1 카메라(610)는 광 축 방향으로 적어도 하나의 렌즈(611) 및 이미지 센서(612)가 배열(또는 위치)될 수 있다. 제 1 카메라(610)의 구조는 이에 한정되지 않으며, 알려진 다양한 구조를 가질 수 있다.
제 2 카메라(620)는 제 1 화각(601)보다 작은 제 2 화각(602)(예: 제 2 화각(43, 43-1, 43-2, 45, 45-1, 또는 45-2)을 가질 수 있다. 제 2 카메라(620)의 제 2 화각(602)은 이동될 수 있다. 예를 들어, 제 2 화각(602)은 제 1 화각(601)의 범위 내에서 이동될 수 있다. 하지만, 본 발명의 실시예들은 이에 한정되지는 않고, 제 2 화각(602)은 제 1 화각(601)의 범위를 벗어날 수 있다.
제 2 카메라(620)는 RGB 카메라(620-1) 및 모노 카메라(620-2)를 포함할 수 있다.
RGB 카메라(620-1)는 광 축을 변경하여 입사된 광을 렌즈로 전달하며, 적어도 한 방향으로 회전 가능한 미러(621-1)(예: 미러(29c)), 적어도 하나의 회전축에 따라 적어도 한 방향으로 미러(621-1)를 회전시킬 수 있는 구동 장치(622-1)(예: 구동 장치(29d)), 적어도 하나의 렌즈(623-1)(예: 제 2 렌즈 모듈(29e)), 및 컬러 이미지 센서(624-1)를 포함할 수 있다. 모노 카메라(620-2)는 광 축을 변경하여 입사된 광을 렌즈로 전달하며, 적어도 한 방향으로 회전 가능한 미러(621-2) (예: 미러(29c)), 적어도 하나의 회전축에 따라 적어도 한 방향으로 미러(621-2)를 회전시킬 수 있는 구동 장치(622-2) (예: 구동 장치(29d)), 적어도 하나의 렌즈(623-2) (예: 제 2 렌즈 모듈(29e)), 및 모노 이미지 센서(624-2)를 포함할 수 있다.
미러(621-1, 621-2) (예: 미러(29c))는 적어도 하나의 회전 축에 따라 적어도 한 방향으로 회전될 수 있다. 예를 들어, 미러(621-1, 621-2)는, 도 6b에 도시된 바와 같이, 입사되는 광(633)을 기준으로 요 축(yaw axis) 및 피치 축(pitch axis) 중 적어도 하나를 기준으로 회전하여, 패닝 방향(631) 및/또는 틸트 방향(632)으로 회전될 수 있다. 미러(621-1, 621-2)는 광축과 평행한 각도(0 도)를 초과하고 광축에 수직한 각도(90도) 미만의 범위에서 회전될 수 있다.
구동 장치(622-1, 622-2) (예: 구동 장치(29d))는 미러(621-1, 621-2)를 적어도 한 방향으로 회전시킬 수 있다. 구동 장치(622-1, 622-2)는 모터, 액츄에이터 등 알려진 다양한 장치로 구성될 수 있다.
적어도 하나의 렌즈(623-1, 623-2) (예: 제 2 렌즈 모듈(29e))는 입사된 광을 모으거나, 확산할 수 있으며, 광량을 조절할 수 있다. 적어도 하나의 렌즈(623-1, 623-2)는 광학 줌 기능을 제공하기 위하여 미러(621-1, 621-2)에 의해 변경된 광 축을 따라 이동될 수 있다.
RGB 이미지 센서(624-1)는 적어도 하나의 렌즈(623-1)를 통과한 광의 적어도 일부(예: 제 1 파장을 가지는 광)를 전기 신호로 변환하여 컬러 이미지를 생성할 수 있다. 모노 이미지 센서(624-2)는 적어도 하나의 렌즈(623-2)를 통과한 광의 적어도 일부(예: 제 2 파장을 가지는 광)를 전기 신호로 변환하여 모노 이미지를 생성할 수 있다. 제 2 카메라(620)는 컬러 이미지와 모노 이미지를 결합(조합)하여 제 2 이미지를 생성할 수 있다. 여기서, RGB 카메라(620-1) 및 모노 카메라(620-2)를 통해 획득되는 이미지들을 결합하여 하나의 이미지(예: 제 2 이미지)를 획득하는 기술은 본 발명의 기술 분야에서 알려진 기술로 상세한 설명을 생략하기로 한다.
상술한 본 발명의 다양한 실시예에 따른 전자 장치는 제 2 카메라(620)를 멀티 카메라로 구현함에 따라 싱글 카메라에 비하여 미러(621-1, 621-2)의 크기를 감소시킬 수 있다. 본 발명의 한 실시예에 따른 제 2 카메라(620)는 슬림화된 전자 장치에 실장될 수 있다.
도 7은 본 발명의 다른 실시예에 따른 카메라 모듈의 구조를 도시하는 도면이다.
도 7을 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))는 제1 카메라(710) 및 제2 카메라(720)를 포함할 수 있다.
제 1 카메라(710)는 도 6의 제 1 카메라(610)와 유사하다. 이에 상세한 설명을 생략하기로 한다.
제 2 카메라(720)는 광 축을 변경하여 입사된 광을 렌즈로 전달하며, 적어도 한 방향으로 회전 가능한 미러(721), 적어도 하나의 회전축에 따라 적어도 한 방향으로 미러(721)를 회전시킬 수 있는 구동 장치(722), 적어도 하나의 렌즈(723), RGB 이미지 센서(724-1), 모노 이미지 센서(724-2) 및 광 분할 소자(725)를 포함할 수 있다.
미러(721), 구동 장치(722) 및 렌즈(723)는 도 6a의 미러(621-1, 621-2), 구동 장치(622-1, 622-2) 및 적어도 하나의 렌즈(623-1, 623-2)와 유사하다. 이에 상세한 설명을 생략하기로 한다.
광 분할 소자(725)는 렌즈(723)를 통해 입사되는 광을 설정된 비율로 분할하고, 분할된 광을 RGB 이미지 센서(724-1) 및 모노 이미지 센서(724-2)로 각각 전달할 수 있다. 예를 들어, 광 분할 소자(725)는 렌즈(723)를 투과한 광의 제 1 일부는 통과 시켜 RGB 이미지 센서(724-1)로 전달하고, 제 2 일부는 반사시켜 모노 이미지 센서(724-2)로 전달할 수 있다.
광 분할 소자(725)는 광을 동일한 비율로 분할하거나, 상이한 비율로 분할할 수 있다. 광 분할 소자(725)는 빔 스플리터(beam spliter), 색 선별 거울(dichroic mirror), 프리즘(prism), 하프 미러(half mirror) 등일 수 있다.
RGB 이미지 센서(724-1)는 렌즈(723)를 투과한 광의 제 1 일부의 이동 경로 상에 배치될 수 있고, 모노 이미지 센서(724-2)는 렌즈(723)를 투과한 광의 제 2 일부의 이동 경로 상에 배치될 수 있다. RGB 이미지 센서(724-1) 및 모노 이미지 센서(724-2)는 입사된 광의 일부(광 분할 소자(725)에 의해 분할된 다른 파장의 광)를 각각 수신하여 컬러 이미지 및 모노 이미지를 획득할 수 있다. 제 2 카메라(720)는 컬러 이미지와 모노 이미지를 결합하여 제 2 이미지를 생성할 수 있다.
어떤 실시예에 따르면, RGB 이미지 센서(724-1) 및 모노 이미지 센서(724-2)는 해상도가 상이할 수 있다. 예를 들어, RGB 이미지 센서(724-1)의 픽셀 수가 모노 이미지 센서(724-2)의 픽셀 수에 비하여 적을 수 있다. 이는 컬러 정보는 이미지의 품질에 상대적으로 영향을 덜 주기 때문이다.
본 발명의 한 실시예는 제 2 카메라(720)의 RGB 이미지 센서(724-1) 및 모노 이미지 센서(724-2)가 미러(721), 구동 장치(722) 및 렌즈(723)를 공용으로 사용함에 따라, 부품 수를 감소할 수 있으며, 제 2 카메라(720)의 실장 공간을 감소할 수 있다. 또한, 본 발명의 한 실시예는 RGB 이미지 센서(724-1) 및 모노 이미지 센서(724-2)가 미러(721), 구동 장치(722) 및 렌즈(723)를 공용으로 사용함에 따라, 도 6a와 같이 별도로 구동될 때 발생할 수 있는 이미지 편차를 방지할 수 있다. 또한, 본 발명의 한 실시예는 멀티 혹은 듀얼 카메라에서 획득되는 이미지의 매칭 시 발생할 수 있는 시차(disparity), 겹침(occlusion) 등의 문제를 해소함으로써, 이미지 정합(image registration), 이미지 보정(image rectification) 등에 따른 프로세서(또는 ISP(image signal processor))의 부하(load)를 감소할 수 있어, 이미지 품질을 향상 시킬 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))는 제 1 카메라(예: 제 1 카메라(29-1), 제 1 카메라(410), 제 1 카메라(420), 제 1 카메라(440), 제 1 카메라(610), 제 1 카메라(710)); 이미지 센서(예: 제 2 이미지 센서(29f), 컬러 이미지 센서(624-1), 컬러 이미지 센서(724-1)), 외부로부터 입사된 광을 상기 이미지 센서로 전달하기 위한 미러(예: 미러(29-c), 미러(621-1), 미러(721)), 및 적어도 하나의 회전축에 따라 적어도 하나의 방향으로 상기 미러를 회전시킬 수 있는 구동 장치(예: 구동 장치(29d), 구동 장치(622-1), 구동 장치(722))를 포함하며, 상기 제1카메라의 화각보다 작은 화각을 갖는 제 2 카메라(예: 제 2 카메라(29-2), 제 2 카메라(430), RGB 카메라(620-1), 제 2 카메라(720)); 및 적어도 하나의 프로세서(예: 프로세서(120), 프로세서(210))를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제 1 카메라를 이용하여, 하나 이상의 외부 객체들 포함하는 제 1 이미지를 획득하고, 상기 제 1 이미지에 포함된 상기 하나 이상의 외부 객체들 중 적어도 일부 객체, 또는 상기 제 1 이미지 중 적어도 일부 영역을 선택하고, 및 상기 제 2 카메라의 화각이 상기 선택된 적어도 일부 객체 또는 상기 적어도 일부 영역에 대응하는 위치로 이동되도록, 상기 구동 장치에 의해 상기 미러가 회전된 상태로 제 2 이미지를 획득하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 제 1 이미지 또는 상기 제 2 이미지 중 적어도 하나를 상기 전자 장치와 기능적으로 연결된 디스플레이(예: 디스플레이(160), 디스플레이(260), 디스플레이(560))를 통해 제공하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 제 1 이미지의 적어도 일부에, 상기 제 2 이미지에 대응하는 위치를 나타내는 그래픽 인디케이터(예: 그래픽 인디케이터(510))를 표시하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 상기 이미지 센서(예: 컬러 이미지 센서(624-1, 724-1))와는 적어도 다른 파장의 빛을 수광하도록 설정된 다른 이미지 센서(예: 모노 이미지 센서(624-2, 724-2)), 상기 외부로부터 입사된 광을 상기 다른 이미지 센서로 전달하기 위한 상기 미러(예: 미러(621-1))와는 다른 미러(예: 미러(621-2)), 및 적어도 하나의 회전축에 따라 적어도 하나의 방향으로 상기 다른 미러를 회전할 수 있는 상기 구동 장치(예: 구동 장치(622-1))와는 다른 구동 장치(예: 구동 장치(622-2))를 포함하며, 상기 제 1 카메라(예: RGB 카메라(451), RGB 카메라(620-1))의 화각보다 작은 화각을 갖는 제 3 카메라(예: 모노 카메라(452), 모노 카메라(620-2))를 더 포함하고, 상기 적어도 하나의 프로세서는, 상기 제 3 카메라를 통해 획득되는 이미지를 더 이용하여, 상기 제 2 이미지를 획득하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 제 2 카메라(예: 제2 카메라(720))는 미러(예: 미러(721)); 적어도 하나의 회전축에 따라 적어도 한 방향으로 상기 미러를 회전시킬 수 있는 구동 장치(예: 구동 장치(722)); 상기 미러에 의해 반사된 광을 모으기 위한 적어도 하나의 렌즈(예: 렌즈 모듈(723)); 상기 적어도 하나의 렌즈를 투과한 광의 제 1 일부는 통과 시키고, 제 2 일부는 반사시키기 위한 광 분할 소자(예: 광 분할 소자(725)); 상기 제 1 일부를 수신하도록 상기 제 1 일부의 광의 이동 경로 상에 배치되는 제 1 이미지 센서(예: 컬러 이미지 센서(724-1)); 및 상기 제 2 일부를 수신하도록 상기 제 2 일부의 광의 이동 경로 상에 배치되고, 상기 제 1 이미지 센서와 적어도 다른 파장의 광을 수신하도록 설정된 제 2 이미지 센서(예: 모노 이미지 센서(724-2))를 포함할 수 있다.
다양한 실시예에 따르면, 상기 광 분할 소자는 상기 제 1 일부 및 상기 제 2 일부가 상이한 비율을 가지도록 상기 입사되는 광을 분할하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 제 2 카메라의 화각은 상기 제 1 카메라의 화각 범위 내에서 이동되도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 적어도 하나의 프로세서는 상기 미러의 회전 정도에 기반하여 상기 제 2 카메라의 이미지 센서가 획득하는 이미지의 크기를 가변하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 상기 전자 장치의 흔들림을 감지하는 적어도 하나의 센서(예: 센서 모듈(240))를 더 포함하고, 상기 적어도 하나의 프로세서는, 상기 전자 장치의 흔들림에 대응하여, 상기 구동 장치를 통해 상기 미러를 회전하여 흔들림 없는 이미지를 획득하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 상기 전자 장치의 이동 속도 및 방향 중 적어도 하나를 감지하는 적어도 하나의 센서(예: 센서 모듈(240))를 더 포함하고, 상기 적어도 하나의 프로세서는 상기 감지된 이동 속도 및 방향 중 적어도 하나의 변경에 기초하여 상기 미러의 회전을 제어하여, 균일하게 이미지들을 획득하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따른 카메라 장치(예: 제 2 카메라(29-2), 제 2 카메라(430), 제 2 카메라(720))는 외부로부터 입사된 광의 경로를 변경하기 위한 미러(예: 미러(721)); 적어도 하나의 회전축에 따라 적어도 한 방향으로 상기 미러를 회전하도록 설정된 구동 장치(예: 구동 장치(722)); 상기 미러를 통해 반사된 광을 모으기 위한 적어도 하나의 렌즈(예: 렌즈 모듈(723)); 상기 적어도 하나의 렌즈를 통해 입사되는 광의 제 1 일부는 통과시키고, 제 2 일부는 반사 시키기 위한 광 분할 소자(예: 광 분할 소자(725)); 상기 제 1 일부를 수신하도록 상기 제 1 일부의 광의 이동 경로 상에 배치된 제 1 이미지 센서(예: 컬러 이미지 센서(724-1)); 및 상기 제 2 일부를 수신하도록 상기 제 2 일부의 광의 이동 경로 상에 배치되고, 상기 제 1 이미지 센서와는 적어도 다른 파장의 광을 수신하도록 설정된 제 2 이미지 센서를 포함할 수 있다.
다양한 실시예에 따르면, 상기 광 분할 소자는 상기 제 1 일부 및 상기 제 2 일부가 균등 또는 상이한 비율을 가지도록 상기 입사되는 광을 분할하도록 설정될 수 있다.
다양한 실시예에 따르면, 상기 제 1 이미지 센서는 컬러 이미지 센서이고, 상기 제 2 이미지 센서는 모노 이미지 센서일 수 있다.
도 8은 본 발명의 한 실시예에 따른 전자 장치의 이미지 획득 방법을 설명하는 흐름도이다.
도 8을 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))의 프로세서(예: 프로세서(120), 프로세서(210))는, 801 동작에서, 제 1 카메라(예: 제 1 카메라(29-1), 제 1 카메라(410), 제 1 카메라(420), 제 1 카메라(440), 제 1 카메라(610), 제 1 카메라(710))를 통해 외부 객체를 포함하는 제 1 이미지를 획득할 수 있다. 예를 들어, 프로세서는 정지 영상(예: 사진) 또는 동영상 촬영 요청 시 제 1 카메라를 활성화하여 제 1 이미지를 획득할 수 있다.
제 1 카메라는 제 1 화각을 가지는 광각 카메라일 수 있다. 제 1 카메라는 화각을 이동할 수 없으며, 미러를 포함하지 않는 미러리스(mirrorless) 카메라일 수 있다. 어떤 실시예에 따르면, 제 1 카메라는 화각을 이동할 수 있는 미러리스 카메라, 화각을 이동할 수 없는 미러 카메라, 또는 화각을 이동할 수 있는 미러 카메라일 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 803 동작에서, 제 1 이미지에 포함된 적어도 하나의 객체들 중 적어도 일부 객체 또는 제 1 이미지의 적어도 일부 영역의 선택(예: 터치, 제스처 등)을 감지할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 805 동작에서, 적어도 하나의 회전축을 따라 적어도 한 방향으로 회전 가능한 미러(예: 미러(29-c), 미러(621-1, 621-2), 미러(721))를 포함하는 제 2 카메라(예: 제 2 카메라(29-2), 제 2 카메라(430), 제 2 카메라(450), 제 2 카메라(620), 제 2 카메라(720))를 활성화하여, 선택된 적어도 일부 객체 또는 적어도 일부 영역에 대응하는 제 2 이미지를 획득할 수 있다. 예를 들어, 프로세서는 선택된 객체 또는 일부 영역이 제 2 카메라의 제 2 화각에 포함되도록 제 2 카메라의 제 2 화각을 이동시켜 제 2 이미지를 획득할 수 있다. 프로세서는 제 2 화각을 이동시키기 위하여, 구동 장치(예: 구동 장치(29d), 구동 장치(622-1, 622-2), 구동 장치(722))를 제어하여 미러를 적어도 한 방향으로 회전시킬 수 있다.
제 2 카메라는 제 1 화각보다 작은 제 2 화각을 가지는 망원 카메라 일 수 있다. 제 2 카메라의 제 2 화각은 제 1 화각의 범위 내에서 이동될 수 있다.
제 1 이미지 및 제 2 이미지는 프리뷰 이미지로, 도 5a 내지 도 5c에서 설명한 바와 같이, 디스플레이(예: 디스플레이(160), 디스플레이(260), 디스플레이(560)) 상에 다양한 방식으로 표시될 수 있다. 제 1 이미지 및 제 2 이미지는 사용자의 선택에 따라 정지 영상 또는 동영상으로 저장될 수 있다.
한편, 도 8에 도시하지는 않았지만, 어떤 실시예에 따르면, 프로세서는 선택된 객체가 이동되는지 확인(체크)하고, 선택된 객체의 이동에 대응하여 미러를 회전함으로써, 선택된 객체를 추적할 수 있다.
어떤 실시예에 따르면, 제 2 카메라는 정지 영상 또는 동영상 촬영 요청 시 제 1 카메라와 함께 활성화될 수 있다.
어떤 실시예에 따르면, 프로세서는 선택된 일부 객체 또는 일부 영역이 제 2 카메라의 제 2 화각 내에 포함되는지 확인하고, 선택된 일부 객체 또는 일부 영역이 제 2 화각 내에 포함되지 않는 경우 이를 시각(예: 에러 메시지), 청각(예: 효과음) 또는 촉각(예: 진동) 중 적어도 하나를 통해 사용자에게 통지할 수 있다.
도 9는 본 발명의 한 실시예에 따른 전자 장치의 이미지 보정 방법을 설명하는 흐름도이다.
도 9를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))의 프로세서(예: 프로세서(120), 프로세서(210))는, 901 동작에서, 화각을 이동할 수 있는 카메라의 활성화를 감지할 수 있다. 예를 들어, 프로세서는 사진 또는 동영상 촬영 기능이 활성화되는지 확인할 수 있다.
카메라는 적어도 한 방향으로 회전 가능한 미러의 회전에 대응하여 화각이 이동될 수 있다. 예를 들어, 카메라는 도 2b의 제 2 카메라(29-2), 도 4a의 카메라(410), 도 4b의 제 2 카메라(430), 도 4c의 제 2 카메라(450), 도 6a의 제 2 카메라(620) 또는 도 7의 제 2 카메라(720))일 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 903 동작에서, 카메라를 통해 이미지를 획득할 수 있다. 프로세서는 획득된 이미지를 프리뷰 이미지로 디스플레이(예: 디스플레이(160), 디스플레이(260), 디스플레이(560)) 상에 표시할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 905 동작에서, 화각 이동이 요청되는지 확인할 수 있다. 화각 이동은 카메라의 화각의 외부 또는 화각의 중심에 위치하지 않는 객체 또는 영역이 선택되거나, 추적 중인 객체가 이동하거나, 사용자 명령(예: 화각 이동을 명령하는 메뉴 또는 소프트 버튼의 터치 등)에 의해 요청될 수 있다.
905 동작의 확인 결과, 화각 이동이 요청되지 않은 경우 본 발명의 한 실시예에 따른 프로세서는 후술하는 909 동작으로 진행할 수 있다. 반면에, 905 동작의 확인 결과, 화각 이동이 요청되는 경우 본 발명의 한 실시예에 따른 프로세서는, 907 동작에서, 미러의 회전에 따른 화각의 이동을 기초로 이미지를 보정할 수 있다. 이미지의 보정 방법에 대한 상세한 설명은 도 10 및 도 11을 참조하여 후술하기로 한다.
본 발명의 한 실시예에 따른 프로세서는, 909 동작에서, 카메라가 비활성화되는지 확인할 수 있다. 예를 들어, 프로세서는 사진 또는 동영상 촬영 기능이 비활성화되는지 확인할 수 있다.
909 동작의 확인 결과, 카메라가 비활성화되지 않는 경우 본 발명의 한 실시예에 따른 프로세서는 903 동작으로 복귀하여 상술한 동작을 반복할 수 있다. 반면에, 909 동작의 확인 결과, 카메라가 비활성화되는 경우 본 발명의 한 실시예에 따른 프로세서는 이미지 획득 방법을 종료할 수 있다.
도 10은 본 발명의 한 실시예에 따른 전자 장치의 이미지 보정 방법을 설명하는 흐름도이고, 도 11a는 본 발명의 한 실시예에 따른 전자 장치의 이미지 보정 방법을 설명하기 위한 도면이고, 도 11b는 본 발명의 한 실시예에 따른 전자 장치의 미러의 회전에 따라 이미지 크기를 가변하는 방법을 설명하기 위한 도면이다.
상세한 설명에 앞서, 도 11a 및 도 11b의 원은 렌즈를 통해 입사되는 전체 이미지 데이터를 의미하고, 사각형은 전체 이미지 데이터 중 이미지 센서에서 획득되는 이미지 데이터를 의미한다.
도 10 내지 도 11b를 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))의 프로세서(예: 프로세서(120), 프로세서(210))는, 1001 동작에서, 화각의 이동이 감지되면(예를 들어, 미러의 회전이 요청되면), 이미지 센서(예: 제 2 이미지 센서(29f), 컬러 이미지 센서(624-1, 724-1), 모노 이미지 센서(624-2, 724-2))에서 획득할 이미지 데이터의 크기를 증가할 수 있다. 예를 들어, 프로세서는 미러의 회전 정도에 비례하여 획득할 이미지 데이터 크기를 증가할 수 있다.
도 11을 참조하여 설명하면, 제 2 카메라(1120)는 미러가 회전되지 않은 경우 제 1 이미지(10)의 중앙을 촬영할 수 있다. 제 1 이미지(10)의 중앙을 촬영한 제 2 이미지(20)는 왜곡이 없는(객체가 회전되지 않은) 정상적인 이미지일 수 있다.
하지만, 제 2 카메라(1120)의 제 2 화각이 우측으로 이동하는 경우 제 2 카메라(1120)를 통해 획득되는 제 2 이미지는, 식별 부호 1111의 도면과 같이, 객체(1101)가 우측으로 회전될 수 있다. 이는 제 2 카메라(1120)의 화각 이동을 위하여 미러가 회전되면서 이미지가 회전 되었으나, 이미지 센서는 회전되지 않았기 때문이다.
객체(1101)의 회전을 보상하기 위해서, 종래의 전자 장치는, 식별 부호 1113의 도면과 같이, 왜곡된 제 2 이미지(1103)를 우측 회전에 대응하여 잘라(crop)낼 수 있다. 하지만, 종래의 방법으로 잘라진 이미지는 이미지 정보가 없는 영역(1104)을 포함할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 식별 부호 1115의 도면과 같이, 이미지를 잘라낼 때 이미지 정보가 획득되지 않는 영역(1104)이 발생하지 않도록 이미지 센서가 획득하는 이미지 데이터의 크기(또는 범위)를 증가(1105)시킬 수 있다. 상기 이미지 센서는 미러를 회전하였을 때, 이미지 정보를 획득하지 못하는 영역이 발생되지 않는 정도의 크기를 가질 수 있다. 예를 들어, 제 2 카메라(1120)의 이미지 센서는 미러의 회전에 따라 증가되어야 하는 이미지 데이터의 최대 크기를 커버할 수 있는 충분한 마진을 가질 수 있다. 상기 프로세서는 미러의 회전에 기반하여 제 2 카메라(1120)의 이미지 센서를 통해 획득할 이미지 데이터의 크기(범위)를 가변할 수 있다.
도 11b를 참조하여 설명하면, 미러의 회전 전 이미지 데이터(1151)는 a(세로) * b(가로)의 크기를 가질 수 있다. 여기서, 원(1152)의 반지름이 "d"인 것으로 가정하면, 상기 회전 전 이미지 데이터(1151)의 세로(a) 크기는 "2 * d * sin φ"이고, 가로 크기(b)는 "2 * d * cos φ"일 수 있다.
한편, 미러가 "θ" 만큼 회전하는 경우 프로세서는 이미지 센서가 획득하는 이미지 데이터의 크기를 증가시킬 수 있다. 여기서, 제 1 직각 삼각형(1154) 및 제2직각 삼각형(1155)을 참조하면, 상기 증가된 이미지 데이터(1153)의 세로 크기(A)는 "2 * d * sin (φ + θ)"이고, 가로 크기(B)는 "2 * d * cos (φ - θ)"임을 알 수 있다.
어떤 실시예에 따르면, 상기 프로세서는 제 2 카메라(1120)의 이미지 센서를 통해 최대 크기의 이미지 데이터를 획득하고, 미러의 회전에 따라 상기 획득된 이미지 데이터의 크롭(crop) 범위를 가변할 수 있다.
어떤 실시예에 따르면, 제 2 카메라(1120)의 이미지 센서의 마진이 충분하지 못하여 획득할 이미지 데이터의 크기를 증가시켜도 이미지 정보를 획득하지 못하는 영역이 발생하는 경우 전자 장치는 제 1 카메라(1110)를 통해 획득되는 이미지(제 1 이미지)로부터 해당 부분(예: 상기 제 2 카메라(1120)를 통해 획득하지 못한 영역)의 이미지 데이터를 획득할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1003 동작에서, 증가된 크기를 가지는 이미지 데이터로부터 이미지(제 2 이미지)를 추출할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1005 동작에서, 추출된 이미지를 역 방향으로 회전할 수 있다. 예를 들어, 프로세서는 식별 부호 1115의 도면에 도시된 바와 같이, 증가된 이미지 데이터(1105)를 미러의 회전 방향에 대응하여 잘라낼 수 있다. 프로세서는, 식별 부호 1117에 도시된 바와 같이, 잘라낸 이미지(1106)를 역 방향(예: 좌측)으로 회전하여, 미러의 회전에 의한 왜곡을 보상할 수 있다.
도 12a는 본 발명의 한 실시예에 따른 전자 장치의 손 떨림 보정 기능을 설명하는 도면이고, 도 12b는 본 발명의 한 실시예에 따른 전자 장치의 짐벌 기능을 설명하는 도면이다.
도 12a 및 도 12b를 참조하면, 본 발명의 한 실시예에 따른 전자 장치는 회전 가능한 미러를 이용하여 카메라의 손 떨림 보정 기능 및 짐볼 기능을 제공할 수 있다.
손 떨림 보정 기능을 지원하지 않는 경우 캡쳐된 이미지는, 식별 부호 1210의 도면과 같이, 손 떨림에 의해 블러(blur) 현상이 발생하여 이미지의 품질이 저하될 수 있다. 하지만, 본 발명의 한 실시예는 식별 부호 1220의 도면과 같이 손 떨림에 대응하여 미러의 회전을 제어하여 손 떨림을 보상함으로써, 캡쳐된 이미지의 블러를 방지하고, 이미지의 품질을 향상 시킬 수 있다.
유사하게, 사진 촬영 시 몸 떨림과 같이 큰 떨림이 발생하는 경우 갭쳐된 이미지는, 식별 부호 1230의 도면과 같이, 블러(blur) 현상이 발생하여 이미지의 품질이 매우 저하될 수 있다. 하지만, 본 발명의 한 실시예는 식별 부호 1240의 도면과 같이 몸 떨림에 대응하여 미러의 회전을 제어하고, 미러의 회전에 따른 이미지 보상을 수행하여 몸 떨림을 보상함으로써, 캡쳐된 이미지의 블러를 방지하고, 이미지의 품질을 향상 시킬 수 있다. 본 발명의 한 실시예는 몸 떨림과 같이 비교적 큰 전자 장치의 흔들림을 보상할 수 있어, 짐볼 기능을 제공할 수 있다.
상술한 본 발명의 한 실시예들은 손 떨림 보정을 위한 별도의 장치(예: 스태빌라이저(stabilizer))없이, 미러의 회전을 통해 손 떨림 또는 몸 떨림 등에 의한 부정적인 영향(예: 이미지의 흔들림)을 적어도 일부 보상할 수 있다.
도 13은 본 발명의 한 실시예에 따른 전자 장치의 파노라마 사진 촬영 방법을 설명하는 흐름도이다.
도 13을 참조하면, 본 발명의 한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))의 프로세서(예: 프로세서(120), 프로세서(210))는, 1301 동작에서, 파노라마 사진의 촬영 요청을 감지할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1303 동작에서, 카메라를 통해 적어도 하나의 이미지를 연속적(예: 일정 주기)으로 획득할 수 있다. 카메라는 적어도 한 방향으로 회전이 가능한 미러를 통해 화각 이동이 가능할 수 있다. 예를 들어, 카메라는 도 2b의 제 2 카메라(29-2), 도 4a의 카메라(410), 도 4b의 제 2 카메라(430), 도 4c의 제 2 카메라(450), 도 6a의 제 2 카메라(620) 또는 도 7의 제 2 카메라(720))일 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1305 동작에서, 전자 장치의 이동 속도 및 이동 방향을 검출할 수 있다. 예를 들어, 프로세서는 전자 장치에 포함된 다양한 센서(예: 자이로 센서, 지자기 센서, 가속도 센서 등)를 통해 전자 장치의 이동 방향 및 이동 속도를 검출할 수 있다. 1303 동작 및 1305 동작은 동시에 수행될 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1307 동작에서, 전자 장치의 이동 속도 및 이동 방향이 일정한지 확인할 수 있다.
1307 동작의 확인 결과, 전자 장치의 이동 속도 및 이동 방향이 일정한 경우 프로세서는 후술하는 1311 동작으로 진행할 수 있다. 반면에, 1307 동작의 확인 결과 전자 장치의 이동 속도 및 이동 방향이 일정하지 않은 경우 프로세서는, 1309 동작에서, 이동 속도 및 이동 방향의 변화에 대응하여 카메라의 미러의 회전을 제어할 수 있다. 예를 들어, 전자 장치의 이동 속도가 느려지는 경우 프로세서는 카메라의 화각이 전자 장치의 이동 방향으로 이동되도록 미러의 회전을 제어하고, 속도가 빨라지는 경우 카메라의 화각이 전자 장치의 이동 방향의 반대 방향으로 이동되도록 미러의 회전을 제어할 수 있다. 이를 통해 전자 장치가 이동 방향으로 흔들림 없이 일정한 속도로 이동한 것처럼 적어도 하나의 이미지들을 획득할 수 있다.
본 발명의 한 실시예에 따른 프로세서는, 1311 동작에서, 파노라마 촬영이 종료되는지 확인할 수 있다.
1311 동작의 확인 결과 파노라마 촬영이 종료되지 않는 경우 프로세서는 1303 동작으로 진행하여 상술한 동작들을 반복할 수 있다. 1311 동작의 확인 결과 파노라마 촬영의 종료가 요청되는 경우 프로세서는 파노라마 촬영을 종료하고, 획득된 이미지들을 결합하여 파노라마 사진을 생성할 수 있다.
도 14a, 14b 및 14c는 본 발명의 한 실시예에 따른 전자 장치의 파노라마 사진 촬영 방법을 설명하기 위한 도면이다.
도 14a 내지 도 14c를 참조하면, 파노라마 사진 촬영 시 사용자는 전자 장치를 특정 방향(예: 우측)으로 이동시킬 수 있다. 파노라마 사진 촬영 시 사용자는, 도 14a에 도시된 바와 같이, 전자 장치를 흔들림 없이 일정한 속도로 이동시키기 어려울 수 있다. 예를 들어, 전자 장치는 상하(예: tilting 방향)로 흔들리며, 이동 속도가 일정하지 않고 빨라지거나 느려질 수 있다.
전자 장치의 이동 방향 및 이동 속도가 일정하지 않은 경우 카메라에 의해 연속적으로 획득되는 이미지들은, 도 14b에 도시된 바와 같이, 촬영되지 않는 부분(1402)이 발생하거나 중첩(중복)되어 촬영되는 부분(1401)이 발생할 수 있다. 프로세서는 틸팅 방향(세로 방향)을 기준으로 이미지들의 일부 영역을 잘라내어 파노라마 사진을 생성할 수 있다. 예를 들어, 프로세서는 N 번째 이미지, N + 2 번째 이미지 및 N + 3 번째 이미지의 상측 일부 및 하측 일부, N +1 번째 이미지의 상측 일부, N + 4 번째 이미지 및 N + 5 번째 이미지의 하측 일부를 잘라내어, 파노라마 사진을 생성할 수 있다. 이와 같이 종래의 파노라마 사진은 전자 장치의 이동 방향(흔들림) 및 이동 속도에 따라 이미지 손실이 발생할 수 있다.
본 발명의 한 실시예에 따른 전자 장치는 전자 장치의 이동 방향 및 이동 속도의 변화에 대응하여 카메라에 포함된 미러의 회전을 제어함으로써, 도 14c에 도시된 바와 같이 파노라마 사진을 생성하기 위한 이미지들을 일정한 간격으로 흔들림없이 획득할 수 있다.
상술한 본 발명의 한 실시예는 파노라마 사진 촬영 시 중첩되는 영역 또는 빈영역이 발생하는 문제를 방지할 수 있다. 또한, 본 발명의 한 실시예는 전자 장치의 흔들림으로 인해 이미지들의 일부를 잘라내야 하는 문제를 방지할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치(예: 전자 장치(101), 전자 장치(201))의 이미지 획득 방법은 제 1 화각을 가지는 제 1 카메라(예: 제 1 카메라(29-1), 제 1 카메라(410), 제 1 카메라(420), 제 1 카메라(440), 제 1 카메라(610), 제 1 카메라(710))를 이용하여 적어도 하나의 외부 객체를 포함하는 제 1 이미지를 획득하는 동작; 상기 제 1 이미지에 포함된 적어도 하나의 외부 객체들 중 적어도 일부 객체 또는 상기 제 1 이미지 중 적어도 일부 영역의 선택을 감지하는 동작; 및 상기 제 1 화각보다 작은 제 2 화각을 가지며, 적어도 한 방향으로 회전 가능한 미러(예: 미러(29-c), 미러(621-1), 미러(721))를 포함하는 제 2 카메라(예: 제 2 카메라(29-2), 제 2 카메라(430), RGB 카메라(620-1), 제 2 카메라(720))의 제 2 화각이 상기 선택된 적어도 일부 객체 또는 상기 적어도 일부 영역에 대응하는 위치를 향하도록 상기 미러가 회전된 상태에서 제 2 이미지를 획득하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 방법은 상기 제 1 이미지 및 상기 제 2 이미지 중 적어도 하나를 디스플레이(예: 디스플레이(160), 디스플레이(260), 디스플레이(560))의 적어도 일부 영역에 표시하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 방법은 상기 제 2 이미지에 대응하는 위치를 나타내는 그래픽 인디케이터(예: 그래픽 인디케이터(510))를 상기 제 1 이미지의 적어도 일부에 표시하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제 2 이미지를 획득하는 동작은 상기 미러의 회전에 기반하여 상기 제 2 카메라의 이미지 센서를 통해 획득되는 이미지의 크롭 범위를 가변하는 동작; 상기 가변된 크롭 범위에 대응하여 상기 획득된 이미지의 일부를 잘라내는 동작; 및 상기 잘라낸 이미지를 역 회전하여 상기 제2이미지를 획득하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 제 2 이미지를 획득하는 동작은 상기 미러의 회전에 비례하여 상기 제 2 카메라의 이미지 센서를 통해 획득되는 이미지의 크기를 가변하는 동작; 상기 크기가 가변된 이미지의 일부 영역을 잘라내는 동작; 및 상기 잘라낸 이미지를 역 회전하여 상기 제2이미지를 획득하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 방법은 상기 전자 장치의 흔들림에 대응하여, 상기 미러를 회전하여 흔들림 보정을 수행하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 방법은 파노라마 사진 촬영 요청을 감지하는 동작; 상기 전자 장치의 이동 속도 및 이동 방향 중 적어도 하나의 변화를 검출하는 동작; 및 상기 전자 장치의 이동 속도 및 이동 방향 중 적어도 하나의 변화에 기초하여 상기 미러의 회전을 제어하여, 파노라마 사진을 생성하기 위한 적어도 하나의 이미지를 획득하는 동작을 더 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 이상의 조합으로 구성된 유닛(unit)을 포함하며, 예를 들면, 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 상호 호환적으로 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device)를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장매체(computer-readable storage media)(예: 메모리(130), 메모리(230))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120), 프로세서(210))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시예는 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    제 1 카메라;
    이미지 센서, 외부로부터 입사된 광을 상기 이미지 센서로 전달하기 위한 미러, 및 적어도 하나의 회전축에 따라 적어도 하나의 방향으로 상기 미러를 회전시킬 수 있는 구동 장치를 포함하며, 상기 제1카메라의 화각보다 작은 화각을 갖는 제 2 카메라; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 제 1 카메라를 이용하여, 하나 이상의 외부 객체들 포함하는 제 1 이미지를 획득하고,
    상기 제 1 이미지에 포함된 상기 하나 이상의 외부 객체들 중 적어도 일부 객체, 또는 상기 제 1 이미지 중 적어도 일부 영역을 선택하고, 및
    상기 제 2 카메라의 화각이 상기 선택된 적어도 일부 객체 또는 상기 적어도 일부 영역에 대응하는 위치로 이동되도록, 상기 구동 장치에 의해 상기 미러가 회전된 상태로 제 2 이미지를 획득하도록 설정된 전자 장치.
  2. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제 1 이미지 또는 상기 제 2 이미지 중 적어도 하나를 상기 전자 장치와 기능적으로 연결된 디스플레이를 통해 제공하도록 설정된 전자 장치.
  3. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제 1 이미지의 적어도 일부에, 상기 제 2 이미지에 대응하는 위치를 나타내는 그래픽 인디케이터를 표시하도록 설정된 전자 장치.
  4. 제 1 항에 있어서,
    상기 이미지 센서와는 적어도 다른 파장의 빛을 수광하도록 설정된 다른 이미지 센서, 상기 외부로부터 입사된 광을 상기 다른 이미지 센서로 전달하기 위한 상기 미러와는 다른 미러, 및 적어도 하나의 회전축에 따라 적어도 하나의 방향으로 상기 다른 미러를 회전할 수 있는 상기 구동 장치와는 다른 구동 장치를 포함하며, 상기 제 1 카메라의 화각보다 작은 화각을 갖는 제 3 카메라를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 제 3 카메라를 통해 획득되는 이미지를 더 이용하여, 상기 제 2 이미지를 획득하도록 설정된 전자 장치.
  5. 제 1 항에 있어서,
    상기 제 2 카메라는
    미러;
    적어도 하나의 회전축에 따라 적어도 한 방향으로 상기 미러를 회전시킬 수 있는 구동 장치;
    상기 미러에 의해 반사된 광을 모으기 위한 적어도 하나의 렌즈;
    상기 적어도 하나의 렌즈를 투과한 광의 제 1 일부는 통과 시키고, 제 2 일부는 반사시키기 위한 광 분할 소자;
    상기 제 1 일부를 수신하도록 상기 제 1 일부의 광의 이동 경로 상에 배치되는 제 1 이미지 센서; 및
    상기 제 2 일부를 수신하도록 상기 제 2 일부의 광의 이동 경로 상에 배치되고, 상기 제 1 이미지 센서와 적어도 다른 파장의 광을 수신하도록 설정된 제 2 이미지 센서를 포함하는 전자 장치.
  6. 제 5 항에 있어서,
    상기 광 분할 소자는
    상기 제 1 일부 및 상기 제 2 일부가 상이한 비율을 가지도록 상기 입사되는 광을 분할하도록 설정된 전자 장치.
  7. 제 1 항에 있어서,
    상기 제 2 카메라의 화각은
    상기 제 1 카메라의 화각 범위 내에서 이동되도록 설정된 전자 장치.
  8. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는
    상기 미러의 회전 정도에 기반하여 상기 제 2 카메라의 이미지 센서가 획득하는 이미지의 크기를 가변하도록 설정된 전자 장치.
  9. 제 1 항에 있어서,
    상기 전자 장치의 흔들림을 감지하는 적어도 하나의 센서를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 전자 장치의 흔들림에 대응하여, 상기 구동 장치를 통해 상기 미러를 회전하여 흔들림 없는 이미지를 획득하도록 설정된 전자 장치.
  10. 제 9 항에 있어서,
    상기 전자 장치의 이동 속도 및 방향 중 적어도 하나를 감지하는 적어도 하나의 센서를 더 포함하고,
    상기 적어도 하나의 프로세서는
    상기 감지된 이동 속도 및 방향 중 적어도 하나의 변경에 기초하여 상기 미러의 회전을 제어하여, 균일하게 이미지들을 획득하도록 설정된 전자 장치.
  11. 전자 장치의 이미지 획득 방법에 있어서,
    제 1 화각을 가지는 제 1 카메라를 이용하여 적어도 하나의 외부 객체를 포함하는 제 1 이미지를 획득하는 동작;
    상기 제 1 이미지에 포함된 적어도 하나의 외부 객체들 중 적어도 일부 객체 또는 상기 제 1 이미지 중 적어도 일부 영역의 선택을 감지하는 동작; 및
    상기 제 1 화각보다 작은 제 2 화각을 가지며, 적어도 한 방향으로 회전 가능한 미러를 포함하는 제 2 카메라의 제 2 화각이 상기 선택된 적어도 일부 객체 또는 상기 적어도 일부 영역에 대응하는 위치를 향하도록 상기 미러가 회전된 상태에서 제 2 이미지를 획득하는 동작을 포함하는 방법.
  12. 제11항에 있어서,
    상기 제 1 이미지 및 상기 제 2 이미지 중 적어도 하나를 디스플레이의 적어도 일부 영역에 표시하는 동작; 및
    상기 제 2 이미지에 대응하는 위치를 나타내는 그래픽 인디케이터를 상기 제 1 이미지의 적어도 일부에 표시하는 동작을 더 포함하는 방법.
  13. 제 11 항에 있어서,
    상기 제 2 이미지를 획득하는 동작은
    상기 미러의 회전에 기반하여 상기 제 2 카메라의 이미지 센서를 통해 획득되는 이미지의 크롭 범위를 가변하는 동작;
    상기 가변된 크롭 범위에 대응하여 상기 획득된 이미지의 일부를 잘라내는 동작; 및
    상기 잘라낸 이미지를 역 회전하여 상기 제2이미지를 획득하는 동작을 포함하는 방법.
  14. 제 13 항에 있어서,
    상기 제 2 이미지를 획득하는 동작은
    상기 미러의 회전에 비례하여 상기 제 2 카메라의 이미지 센서를 통해 획득되는 이미지의 크기를 가변하는 동작;
    상기 크기가 가변된 이미지의 일부 영역을 잘라내는 동작; 및
    상기 잘라낸 이미지를 역 회전하여 상기 제2이미지를 획득하는 동작을 포함하는 방법.
  15. 제 11 항에 있어서,
    상기 전자 장치의 흔들림에 대응하여, 상기 미러를 회전하여 흔들림 보정을 수행하는 동작; 및
    파노라마 사진 촬영 요청 시 상기 전자 장치의 이동 속도 및 이동 방향 중 적어도 하나의 변화를 검출하고, 상기 전자 장치의 이동 속도 및 이동 방향 중 적어도 하나의 변화에 기초하여 상기 미러의 회전을 제어하여, 파노라마 사진을 생성하기 위한 적어도 하나의 이미지를 획득하는 동작 중 적어도 하나를 더 포함하는 방법.
PCT/KR2018/008792 2017-08-10 2018-08-02 미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치 WO2019031764A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/637,044 US11006030B2 (en) 2017-08-10 2018-08-02 Method and electronic device for acquiring image by using camera comprising driving apparatus capable of rotating mirror

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170101409A KR102378472B1 (ko) 2017-08-10 2017-08-10 미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치
KR10-2017-0101409 2017-08-10

Publications (1)

Publication Number Publication Date
WO2019031764A1 true WO2019031764A1 (ko) 2019-02-14

Family

ID=65272392

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/008792 WO2019031764A1 (ko) 2017-08-10 2018-08-02 미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치

Country Status (3)

Country Link
US (1) US11006030B2 (ko)
KR (1) KR102378472B1 (ko)
WO (1) WO2019031764A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110113449A (zh) * 2019-03-29 2019-08-09 维沃移动通信有限公司 一种终端设备及器件回缩方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102036204B1 (ko) * 2018-06-18 2019-10-24 양경호 휴대형 이동통신 단말기의 자기 영상 촬영장치 및 그 제어 방법
WO2021078302A1 (zh) * 2019-10-24 2021-04-29 中兴通讯股份有限公司 终端及拍摄方法、存储介质、电子装置
JP7286024B2 (ja) * 2019-12-14 2023-06-02 グラス イメージング インコーポレイテッド 回転可能なリフレクターを備えた撮像システム
KR20210112822A (ko) * 2020-03-06 2021-09-15 엘지이노텍 주식회사 카메라 모듈
KR20210118616A (ko) 2020-03-23 2021-10-01 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN112527102B (zh) * 2020-11-16 2022-11-08 青岛小鸟看看科技有限公司 头戴式一体机系统及其6DoF追踪方法和装置
CN115514874B (zh) * 2021-06-07 2024-04-05 荣耀终端有限公司 一种视频拍摄方法及电子设备
KR20230001760A (ko) * 2021-06-29 2023-01-05 삼성전자주식회사 이미지 안정화 방법 및 이를 위한 전자 장치
EP4135311A4 (en) * 2021-06-29 2023-05-03 Samsung Electronics Co., Ltd. METHOD OF IMAGE STABILIZATION AND ELECTRONIC DEVICE THEREFOR
CN114697551A (zh) * 2022-03-24 2022-07-01 广东小天才科技有限公司 一种图像拍摄方法、装置、终端设备以及存储介质
WO2023216157A1 (en) * 2022-05-11 2023-11-16 Huawei Technologies Co., Ltd. A camera module comprising an image rotation correction mechanism and an optical element having dach reflective surfaces thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205641A (ja) * 1998-01-20 1999-07-30 Minolta Co Ltd 電子カメラ
US6320610B1 (en) * 1998-12-31 2001-11-20 Sensar, Inc. Compact imaging device incorporating rotatably mounted cameras
JP2002290810A (ja) * 2001-03-22 2002-10-04 Takami Hasegawa カメラの揺れ補正装置
JP2010166229A (ja) * 2009-01-14 2010-07-29 Fujifilm Corp 立体撮像装置
US20140160242A1 (en) * 2010-12-16 2014-06-12 Wenge David An Adapter and corresponding methods for adding 3D function to a 2D digital camera

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020067426A1 (en) 1997-04-10 2002-06-06 Hideki Nagata Electronic camera having a phoelectric sensor device
US8442392B2 (en) 2009-12-22 2013-05-14 Nokia Corporation Method and apparatus for operating the automatic focus or the optical imaging stabilizing system
JP5622443B2 (ja) 2010-06-08 2014-11-12 日本電産サンキョー株式会社 振れ補正機能付き光学ユニット
CN108718376B (zh) 2013-08-01 2020-08-14 核心光电有限公司 具有自动聚焦的纤薄多孔径成像系统及其使用方法
US9285566B2 (en) 2013-08-08 2016-03-15 Apple Inc. Mirror tilt actuation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11205641A (ja) * 1998-01-20 1999-07-30 Minolta Co Ltd 電子カメラ
US6320610B1 (en) * 1998-12-31 2001-11-20 Sensar, Inc. Compact imaging device incorporating rotatably mounted cameras
JP2002290810A (ja) * 2001-03-22 2002-10-04 Takami Hasegawa カメラの揺れ補正装置
JP2010166229A (ja) * 2009-01-14 2010-07-29 Fujifilm Corp 立体撮像装置
US20140160242A1 (en) * 2010-12-16 2014-06-12 Wenge David An Adapter and corresponding methods for adding 3D function to a 2D digital camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110113449A (zh) * 2019-03-29 2019-08-09 维沃移动通信有限公司 一种终端设备及器件回缩方法

Also Published As

Publication number Publication date
US20200244854A1 (en) 2020-07-30
KR20190017113A (ko) 2019-02-20
US11006030B2 (en) 2021-05-11
KR102378472B1 (ko) 2022-03-25

Similar Documents

Publication Publication Date Title
WO2019031764A1 (ko) 미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치
WO2018199542A1 (ko) 전자 장치 및 전자 장치의 영상 표시 방법
WO2018128421A1 (en) Image capturing method and electronic device
WO2018043884A1 (ko) 카메라를 제어하기 위한 방법 및 그 전자 장치
WO2018182292A1 (en) Electronic device and control method thereof
WO2018169273A1 (en) Method for providing different indicator for image based on shooting mode and electronic device thereof
WO2018101774A1 (en) Electronic device and method for displaying image for iris recognition in electronic device
WO2018048183A1 (ko) 플렉서블 디스플레이를 포함하는 접을 수 있는 전자 장치
WO2018117757A1 (en) Method and device for managing thumbnail of three-dimensional contents
WO2017222152A1 (ko) 전자 장치 및 그의 동작 방법
WO2017014415A1 (en) Image capturing apparatus and method of operating the same
WO2018021739A1 (en) Method for providing video content and electronic device for supporting the same
WO2017209560A1 (ko) 화면 출력 방법 및 이를 지원하는 전자 장치
KR20180081918A (ko) 전자 장치 및 전자 장치의 영상 촬영 방법
WO2017104987A1 (en) Photographing device and control method thereof
WO2018008924A2 (ko) 유저 인터페이스 제공 방법 및 이를 지원하는 전자 장치
WO2017052113A1 (ko) 전자 장치 및 촬영 방법
WO2017171248A1 (ko) 이미지를 처리하기 위한 전자 장치 및 방법
WO2017142225A1 (ko) 전자 장치 및 전자 장치의 동작 제어 방법
WO2017131401A1 (ko) 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법
WO2018097682A1 (ko) 영상 처리 장치 및 그 영상 처리 방법
WO2016200085A1 (en) Electronic apparatus and method of extracting still images
WO2018217066A1 (ko) 생체 정보를 측정하는 전자 장치와 이의 동작 방법
WO2017195993A2 (en) Method and electronic device for verifying light source of images
WO2018038483A1 (ko) 전자 장치 및 전자 장치의 동작 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18845114

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18845114

Country of ref document: EP

Kind code of ref document: A1