WO2021246758A1 - 전자 장치 및 그 동작 방법 - Google Patents

전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
WO2021246758A1
WO2021246758A1 PCT/KR2021/006814 KR2021006814W WO2021246758A1 WO 2021246758 A1 WO2021246758 A1 WO 2021246758A1 KR 2021006814 W KR2021006814 W KR 2021006814W WO 2021246758 A1 WO2021246758 A1 WO 2021246758A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
region
camera
interest
depth
Prior art date
Application number
PCT/KR2021/006814
Other languages
English (en)
French (fr)
Inventor
임성훈
권태혁
김덕호
이재웅
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021246758A1 publication Critical patent/WO2021246758A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • Various embodiments relate to an electronic device for acquiring a depth of a region of interest using a plurality of rotatable cameras embedded in the electronic device, and an operating method thereof.
  • Augmented reality is a technology that projects a virtual image onto a physical environment space of the real world or a real world object and displays it as a single image.
  • the augmented reality device allows a real scene and a virtual image to be viewed together through a see-through display module disposed in front of the user while being worn on the user's face or head.
  • the depth of the real space required according to the augmented reality service provided to the user can be measured. There is a need.
  • An object of the present invention is to provide an electronic device for acquiring a depth of a region of interest using a plurality of rotatable cameras embedded in the electronic device, and an operating method thereof.
  • Another object of the present invention is to provide an electronic device for setting or changing a photographing direction of a plurality of cameras according to a photographing mode, and an operating method thereof.
  • the technical problem to be solved is not limited to the technical problems as described above, and other technical problems may exist.
  • An electronic device includes a camera module including rotatable first and second cameras, a memory for storing one or more instructions, and a processor for executing one or more instructions, the processor comprising: two or more images each including the region of interest is obtained and obtained by determining the region of interest according to the The depth of the ROI may be obtained using two or more images.
  • a method of operating an electronic device including rotatable first and second cameras includes determining a region of interest according to a function being executed, and performing a first operation based on a combination of predetermined shooting directions of the first and second cameras. and obtaining two or more images each including a region of interest by controlling the two cameras to be deflected, and obtaining a depth of the region of interest by using the obtained two or more images.
  • 1 is a diagram schematically illustrating an embodiment.
  • FIG. 2 is a diagram for describing an operation of an electronic device according to an exemplary embodiment.
  • FIG 3 is a view for explaining an example in which a camera module in an electronic device rotates, according to an exemplary embodiment.
  • FIG. 4 is a flowchart illustrating an operation in which an electronic device acquires a depth of an ROI by using rotatable first and second cameras, according to an exemplary embodiment.
  • FIG. 5 is a flowchart illustrating a method of determining a region of interest according to a photographing mode.
  • FIG. 6 is a diagram for explaining an example of determining an ROI in a gaze recognition mode.
  • FIG. 7 is a diagram for explaining an example of determining a region of interest in an object recognition mode.
  • FIG. 8 is a diagram for explaining an example of determining a region of interest in a gesture recognition mode.
  • FIG. 9 is a diagram for explaining an example of determining a region of interest in a spatial recognition mode.
  • FIG. 10 is a diagram for explaining a method of converting acquired images.
  • 11 is a diagram for explaining a method of matching feature points in an ROI.
  • FIG. 12 is a diagram for explaining a method of calculating a disparity value d for a feature point.
  • FIG. 13 is a diagram for describing a method of calculating a depth z of an ROI.
  • FIG. 14 is a diagram for explaining a method of generating a depth map based on depth calculation.
  • 15 is a flowchart illustrating an operation of changing a photographing direction of a camera module according to an exemplary embodiment.
  • 16 is a diagram for describing an example of changing a photographing direction according to a change in a position of a region of interest.
  • 17 is a view for explaining another example of changing a photographing direction according to a change in a position of a region of interest.
  • 18 is a diagram for explaining another example of changing a photographing direction according to a change in a position of a region of interest.
  • 19 is a diagram for explaining an example of changing a photographing direction according to a change in the size of a region of interest.
  • 20 is a view for explaining another example of changing a photographing direction as the size of the ROI is changed.
  • 21 is a block diagram of an electronic device according to an embodiment.
  • 22 is a block diagram of an electronic device and an external device according to an exemplary embodiment.
  • phrases such as “in some embodiments” or “in one embodiment” appearing in various places in this specification are not necessarily all referring to the same embodiment.
  • Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented in various numbers of hardware and/or software configurations that perform specific functions.
  • the functional blocks of the present disclosure may be implemented by one or more microprocessors, or by circuit configurations for a given function.
  • the functional blocks of the present disclosure may be implemented in various programming or scripting languages.
  • the functional blocks may be implemented as an algorithm running on one or more processors.
  • the present disclosure may employ prior art for electronic configuration, signal processing, and/or data processing, and the like. Terms such as “mechanism”, “element”, “means” and “configuration” may be used broadly and are not limited to mechanical and physical components.
  • connecting lines or connecting members between the components shown in the drawings only exemplify functional connections and/or physical or circuit connections.
  • a connection between components may be represented by various functional connections, physical connections, or circuit connections that are replaceable or added.
  • AR Augmented Reality
  • 'augmented reality means showing a virtual image together in a physical environment space of the real world or showing a real object and a virtual image together.
  • 'Augmented Reality Device' refers to a device capable of expressing 'Augmented Reality', and generally refers to an augmented reality glasses device in the form of glasses worn by a user on a face part ( Augmented Reality Glasses), as well as a head mounted display device (HMD: Head Mounted Display Apparatus) worn on the head, and an augmented reality helmet (Augmented Reality Helmet).
  • Augmented Reality Glasses Augmented Reality Glasses
  • HMD Head Mounted Display Apparatus
  • a 'real scene' is a scene of the real world that a user sees through the augmented reality device, and may include a real world object.
  • a 'virtual image' is an image generated through an optical engine and may include both a static image and a dynamic image. Such a virtual image is observed together with a real scene, and may be an image representing information about a real object in the real scene, information about an operation of an augmented reality device, or a control menu.
  • a general augmented reality device uses an optical engine for generating a virtual image composed of light generated from a light source, and a transparent material to guide the virtual image generated by the optical engine to the user's eyes and view the scene in the real world together.
  • a formed light guide plate (Waveguide) is provided.
  • an optical element for changing the path of light having a basic straightness (Optical element) is required.
  • the optical path may be changed by using reflection by a mirror or the like, or the optical path may be changed through diffraction by a diffraction element such as a diffractive optical element (DOE) or a holographic optical element (HOE), but is not limited thereto.
  • DOE diffractive optical element
  • HOE holographic optical element
  • FIG. 1 is a diagram schematically illustrating an operation of an electronic device according to an exemplary embodiment.
  • the electronic device 100 may be an augmented reality device.
  • the electronic device 100 may be a device implemented in the shape of glasses that can be worn on a user's face.
  • the electronic device 100 may be a device implemented in the shape of goggles, a helmet, a hat, etc. that can be worn on the user's head, but is not limited thereto.
  • the electronic device 100 may provide a virtual image to the display.
  • the electronic device 100 needs to measure the depth of the real object in order to provide the virtual image to the display so that it can be seen in harmony with the shape, arrangement, depth, etc. of the real object.
  • the electronic device 100 may measure the depth of a real object by using a plurality of images obtained from different viewpoints through a plurality of rotatable cameras.
  • the camera module 175 of the electronic device 100 may include a first camera 171 and a second camera 172, but is not limited thereto.
  • the camera module 175 may include three or more rotatable cameras.
  • the first camera 171 and the second camera 172 may be mounted or installed in a partial area of the electronic device 100 in a structure rotatable in a direction of a predetermined angle as well as up and down or left and right so that the photographing direction can be changed.
  • the first camera 171 is embedded in the outer region of the left eye lens unit among the frame regions of the electronic device 100 implemented in the shape of glasses
  • the second camera 172 is the electronic device ( 100) may be mounted or installed in the form embedded in the outer region of the right eye lens unit among the frame region, but is not limited thereto.
  • the electronic device 100 may measure the depth of the ROI using the first camera 171 and the second camera 172 .
  • the region of interest may be a region in an image that requires depth measurement.
  • the region of interest may be a specific object, a region to which the user's gaze is directed, a region where the user's hand is located, or a surrounding space, but is not limited thereto.
  • the depth of the ROI may mean a distance on the Z-axis from the camera module 175 or the electronic device 100 including the camera module 175 to the ROI.
  • the X-axis is a reference axis passing through the electronic device 100 to the left and right
  • the Y-axis is a reference axis passing through the electronic device 100 up and down
  • the Z-axis is forward and backward through the electronic device 100 . It may be a reference axis passing through.
  • the X axis, the Y axis, and the Z axis may be perpendicular to each other.
  • the electronic device 100 may determine a combination of the photographing directions of the first camera 171 and the second camera 172 for measuring the depth of the ROI.
  • the electronic device 100 measures the depth of the region of interest 105 using the first image acquired through the first camera 171 and the second image acquired through the second camera 172 .
  • the region of interest 105 must be included in both the first image and the second image.
  • the electronic device 100 sets the first image so that the region of interest 105 is included in the depth measurement region 103 .
  • a combination of the shooting directions of the camera 171 and the second camera 172 may be set or changed.
  • the depth measurement area may mean a three-dimensional area in which depth can be measured using the first camera 171 and the second camera 172 .
  • the depth measurement area 103 is formed through the first photographing area 101 and the second camera 172 , which are three-dimensional space of a field of view (FOV) that can be photographed through the first camera 171 .
  • It may be a 3D area in which the second imaging area 102 that is a 3D space of a field of view (FOV) that can be photographed overlaps.
  • the electronic device 100 may calculate different depth measurement areas according to combinations of various photographing directions of the rotatable first camera 171 and the rotatable second camera 172 .
  • the electronic device 100 efficiently acquires the depth of the ROI based on the information on the depth measurement region indicating the region in which depth measurement is possible according to the combination of the photographing directions of the first and second cameras stored in advance in the memory 130 . It is possible to determine the optimal combination of shooting directions for
  • the electronic device 100 changes the two rotatable cameras in an optimal photographing direction for measuring the depth of the ROI, so that the depth of the ROI is more accurately and quickly measurement may be possible.
  • the electronic device 100 may provide an augmented reality service by measuring the depth of an ROI requiring depth measurement according to the identified photographing mode. For example, the electronic device 100 may display a virtual image close to the user's gaze point or the user's hand position. Also, the electronic device 100 may generate a depth map for the surrounding space.
  • the electronic device 100 since the electronic device 100 includes a rotatable camera, the depth of the ROI may be measured without a Time-of-Flight (ToF) sensor. Accordingly, miniaturization and weight reduction of the electronic device 100 may be possible, and power consumption may be reduced because an emitter composed of at least one light source for projecting infrared or light included in the ToF sensor is not included.
  • ToF Time-of-Flight
  • the electronic device 100 may acquire images having a field of view (FOV) of the maximum angular range in which the first camera 171 and the second camera 172 are rotatable, various It is possible to replace a plurality of cameras that are fixedly arranged to secure a shooting angle. Accordingly, it is possible to reduce the size and weight of the electronic device 100 .
  • FOV field of view
  • FIG. 2 is a diagram for describing an operation of an electronic device according to an exemplary embodiment.
  • the electronic device 100 includes a camera module 175 including a first camera 171 and a second camera 172 , an eye tracking sensor 160 , and a memory 130 . and a processor 120 .
  • the processor 120 of the electronic device 100 may generally control the camera module 175 , the eye tracking sensor 160 , and the like by executing programs stored in the memory 130 .
  • the camera module 175 may photograph the surroundings of the electronic device 100 .
  • the camera module 175 may include two or more cameras including a first rotatable camera 171 and a rotatable second camera 172 .
  • the camera module 175 may acquire an image frame, such as a still image or a moving picture, through an image sensor when an application requesting a photographing function is executed.
  • the image captured through the image sensor may be processed through the processor 120 or a separate image processing unit (not shown).
  • the camera module 175 may change the photographing direction by rotating it.
  • the camera module 175 may include a hardware structure capable of changing a photographing direction by panning or tilting.
  • the camera module 175 may rotate clockwise or counterclockwise based on a predetermined axis as well as up and down or left and right.
  • the camera module 175 may change the shooting direction by rotating a predetermined angle in a predetermined direction under the control of the processor 120 to photograph the surroundings. Also, the camera module 175 may sequentially photograph the surroundings of the electronic device 100 while rotating in a predetermined direction under the control of the processor 120 .
  • the first camera 171 and the second camera 172 may rotate at a predetermined angle in a predetermined direction within a rotatable range, respectively.
  • first camera 171 and the second camera 172 may rotate at the same angle within a predetermined range in the same direction, for example, left or right, while maintaining a state parallel to each other within a predetermined range. Accordingly, the first photographing direction of the first camera 171 and the second photographing direction of the second camera 172 may be parallel to each other.
  • the first photographing direction of the first camera 171 is toward the center of the left eye lens unit and the right eye lens unit of the electronic device 100
  • the second photographing direction of the second camera 172 is also the left eye lens unit. and a direction toward the center of the right eye lens unit.
  • the first camera 171 and the second camera 172 may take pictures in a direction toward the center of the electronic device 100 at a predetermined angle, respectively.
  • the gaze tracking sensor 160 may detect gaze information of the user's eyes.
  • the gaze information may include at least one of a gaze direction viewed by the user's eye, a pupil position of the user's eye, or coordinates of a center point of the pupil.
  • the eye tracking sensor 160 may provide light to the user's eye (a left eye or a right eye) and sense the amount of light reflected from the user's eye.
  • the eye tracking sensor 160 may detect a gaze direction of the user's eye, a pupil position of the user's eye, coordinates of a center point of the pupil, and the like, based on the detected amount of light.
  • the eye tracking sensor 160 may provide light to the user's eyes and photograph the user's eyes.
  • the eye tracking sensor 160 may detect a gaze direction of the user's eye, a pupil position of the user's eye, coordinates of a center point of the pupil, and the like, based on the captured user's eye image.
  • the gaze tracking sensor 160 may acquire gaze information of the user by sensing the eyes of the user wearing the electronic device 100 at predetermined time intervals.
  • the memory 130 may store a program to be executed by the processor 120 , and may store data input to or output from the electronic device 100 .
  • the memory 130 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), RAM (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , may include at least one type of storage medium among optical disks.
  • Programs stored in the memory 130 may be classified into a plurality of software modules according to their functions.
  • the depth measurement region calculation module 131 the imaging mode identification mode 132 , and the region of interest determination module 133 .
  • photographing direction determination module 134 photographing module 135 , image processing module 136 , depth calculation module 137 , gaze recognition module 138 , gesture recognition module 139 , object recognition module 140
  • may include a spatial recognition module 141 but is not limited thereto, and may store some of them or further include other software modules.
  • the memory 130 may store information about the depth measurement area calculated by the depth measurement area calculation module 131 to be described later.
  • the memory 130 may store information on the depth measurement area calculated for various combinations of the photographing directions of the first camera 171 and the second camera 172 in the form of a table.
  • the memory 130 may store an algorithm for detecting a combination of the photographing directions of the first camera 171 and the second camera 172 corresponding to the depth measurement area.
  • the processor 120 controls the overall operation of the electronic device 100 .
  • the processor 120 may control an operation or function performed by the electronic device 100 by executing instructions or programs stored in the memory 130 .
  • the processor 120 may generally control the camera module 175 including the first camera 171 and the second camera 172 , the eye tracking sensor 160 , and the like.
  • the processor 120 may include one or a plurality of processors.
  • the processor 120 is, for example, a central processing unit (Central Processing Unit), a microprocessor (microprocessor), a graphic processor (Graphic Processing Unit), ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), and FPGAs (Field Programmable Gate Arrays) may be configured of at least one hardware, but is not limited thereto.
  • a central processing unit Central Processing Unit
  • microprocessor microprocessor
  • a graphic processor Graphic Processing Unit
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • the processor 120 By executing the depth measurement area calculation module 131 stored in the memory 130 , the processor 120 measures depth according to a combination of a plurality of photographing directions that can be photographed by the first camera 171 and the second camera 172 . This possible area can be calculated.
  • the processor 120 may store information on the depth measurement area calculated for various combinations of the photographing directions of the first camera 171 and the second camera 172 in the form of a table in the memory 130 . Also, the processor 120 may store, in the memory 130 , an algorithm for detecting a combination of the photographing directions of the first camera 171 and the second camera 172 corresponding to the depth measurement area.
  • the depth measurement area includes a first capturing area that is a three-dimensional space of a field of view (FOV) photographable through the first camera 171 and a field of view (FOV) photographable through the second camera 172 .
  • FOV field of view
  • of view may be a 3D area in which the second imaging area, which is a 3D space, overlaps.
  • the processor 120 is configured to operate in the first photographing direction of the first camera 171 based on a pre-stored algorithm (eg, a predetermined collision processing algorithm) for calculating an area where the first photographing area and the second photographing area overlap.
  • a pre-stored algorithm eg, a predetermined collision processing algorithm
  • the depth measurement area 103 may be calculated using a baseline value indicating an interval therebetween.
  • the first capturing area 101 ( FIG. 1 ) of the first camera 171 includes a horizontal FOV (FOVX), a vertical FOV (FOVY), and a first It may be calculated using a predetermined pixel size of the camera 171 .
  • the second capturing area 102 ( FIG. 1 ) of the second camera 172 includes a horizontal FOV (FOVX), a vertical FOV (FOVY), and a second It may be calculated using a predetermined pixel size of the camera 172 .
  • the processor 120 may identify the shooting mode of the camera module 175 by executing the shooting mode identification mode 132 stored in the memory 130 .
  • the photographing mode of the camera module 175 is, for example, a gaze recognition mode for tracking an object in the user's gaze direction, an object recognition mode for tracking a specific object around the electronic device 100, and recognition of a user's gesture It may include at least one of a gesture recognition mode for recognizing a gesture recognition mode and a space recognition mode for recognizing a space around the electronic device 100 .
  • the processor 120 may identify the shooting mode of the camera module 175 according to a preset criterion.
  • the processor 120 may identify the photographing mode of the camera module 175 as a gesture recognition mode. Also, for example, the processor 120 may recognize a user's gesture in the gesture recognition mode and change the shooting mode of the camera module 175 according to the recognized gesture. The processor 120 may execute an application corresponding to the gesture and change the photographing mode of the camera module 175 according to the photographing mode required by the executed application.
  • the processor 120 may identify the photographing mode of the camera module 175 as a spatial recognition mode. .
  • the processor 120 sets the photographing mode of the camera module 175 to a gaze recognition mode, an object recognition mode, a gesture recognition mode, or a space recognition. It can be identified by at least one of the modes.
  • the processor 120 may identify the shooting mode of the first camera 171 and the shooting mode of the second camera 172 differently from each other. For example, the processor 120 may identify the photographing mode of the first camera 171 as a gaze recognition mode, and identify the photographing mode of the second camera 172 as a spatial recognition mode.
  • the processor 120 sequentially changes according to a predetermined time interval to any one of a gaze recognition mode, an object recognition mode, a gesture recognition mode, or a space recognition mode according to a preset order and time interval.
  • the shooting mode can be identified.
  • the processor 120 provides information on the region of interest in the imaging mode that ends at the time of changing from one imaging mode to another (eg, the final position of the object being tracked in the object recognition mode, and the gaze tracking mode) the final gaze point, etc.), and then, when the same imaging mode is resumed according to a preset period, the imaging mode may be resumed based on the stored information on the ROI.
  • the processor 120 may determine the region of interest for which depth measurement is required by executing the region of interest determination module 133 stored in the memory 130 .
  • the processor 120 may determine the region of interest according to the function being executed.
  • the processor 120 may determine a region of interest according to execution of a predetermined application.
  • the region of interest may be a specific object, a region to which the user's gaze is directed, a region where the user's hand is located, or a surrounding space, but is not limited thereto.
  • the processor 120 may identify a photographing mode of the camera module 175 and determine a region of interest according to the identified photographing mode.
  • the processor 120 may determine the ROI based on the user's gaze point.
  • the processor 120 may acquire information about the gaze point based on gaze information obtained through the gaze tracking sensor 160 by the execution of the gaze recognition module 138 .
  • the processor 120 may determine the ROI based on the gaze point.
  • the region of interest may be a preset peripheral region based on a gaze point at which the user gazes.
  • the processor 120 may determine by changing the ROI according to the changed gaze point while tracking the gaze point of the user while the gaze recognition mode is executed.
  • the processor 120 may determine the ROI based on a predetermined target object.
  • the processor 120 may recognize a predetermined target object from the image captured by the camera module 175 using a predetermined object tracking algorithm by executing the object recognition module 139 .
  • the ROI may be determined as a target object.
  • the processor 120 tracks the movement of the target object by detecting the location, direction, depth, etc. of the target object using a predetermined object tracking algorithm while executing the object recognition mode, and selects the region of interest according to the location of the moving target object. You can decide to change it.
  • the processor 120 may recognize the user's hand and determine the ROI based on the position of the hand. For example, the processor 120 may recognize the user's hand from the image captured by the camera module 175 according to the execution of the gesture recognition module 140 . For example, the region of interest may be determined by the position of the user's hand. Also, as the position of the user's hand is changed while the gesture recognition mode is being executed, the processor 120 may determine by changing the ROI according to the changed position of the hand.
  • the processor 120 may determine the surrounding space included in the photographable angle by the camera module 175 as the region of interest. .
  • the processor 120 may determine a combination of the photographing directions of the first camera 171 and the second camera 172 for measuring the depth of the region of interest by executing the photographing direction determination module 134 stored in the memory 130 . have.
  • the electronic device 100 controls the first and second cameras 171 and 172 to be displaced based on a predetermined combination of the shooting directions of the first camera 171 and the second camera 172 . can do. For example, when the camera module 175 is driven, the electronic device 100 may determine a state in which the first camera 171 and the second camera 172 are parallel toward the front direction as the default photographing direction.
  • the electronic device 100 directs the first camera 171 to a region of interest (eg, a specific target object, an object to which a user's gaze is directed, a user's hand, etc.) and a combination of the photographing direction of the second camera 172 may be determined.
  • a region of interest eg, a specific target object, an object to which a user's gaze is directed, a user's hand, etc.
  • the electronic device 100 identifies the shooting mode of the camera module 175 and determines the shooting direction based on a combination of the shooting directions of the first camera 171 and the second camera 172 preset according to the shooting mode.
  • the electronic device 100 captures a state in which the first camera 171 and the second camera 172 are parallel to the gaze point toward which the user's gaze is directed according to the identified photographing mode, for example, in the gaze recognition mode. direction can be determined.
  • the electronic device may determine a state in which the first and second cameras 171 and 172 are narrowed in a downward direction close to the electronic device 100 in which the user's hand may be positioned as the photographing direction. .
  • the processor 120 may determine a combination of photographing directions to be changed as it is determined that at least a portion of the region of interest is outside the depth measurement region corresponding to the combination of the photographing directions of the first and second cameras 171 and 172 . . The processor 120 may determine a combination of photographing directions corresponding to at least one depth measurement area including the ROI, based on the pre-calculated information on the depth measurement area.
  • the information on the depth measurement area is information indicating an area where depth measurement is possible according to a combination of a plurality of photographing directions that can be photographed by the first and second cameras 171 and 172 , and the depth measurement area It may be calculated by the calculation module 131 .
  • the processor 120 may acquire an image by photographing the surroundings of the electronic device 100 through the camera module 175 by executing the photographing module 135 stored in the memory 130 .
  • the processor 120 controls the first camera 171 and the second camera 172 to be changed based on the combination of the photographing directions determined by the photographing direction determination module 134 to change the orientation of the electronic device 100 . You can take pictures of the surroundings.
  • the processor 120 controls each of the first and second cameras 171 and 172 to change as the combination of the photographing directions is changed by the photographing direction determining module 134 , thereby changing the electronic device. It is possible to photograph the periphery of (100). Accordingly, the processor 120 may acquire a plurality of images each including the ROI.
  • the processor 120 may convert the image acquired by the photographing module 135 by executing the image processing module 136 stored in the memory 130 .
  • the first camera 171 and the second camera 172 may be respectively embedded in the outer regions of both lens units among the frame regions of the electronic device 100 implemented in the shape of glasses. Accordingly, in order to measure the depth of the region of interest included in the plurality of images captured by the first camera 171 and the second camera 172 , the plurality of images are generated by the first camera 171 and the second camera. Assuming that 172 is photographed in a state in which they are arranged parallel to each other, conversion processing into an obtainable image is required.
  • the processor 120 is configured to match the first image with the first feature on the first image acquired by the first camera 171 and the second feature on the second image acquired by the second camera 172 .
  • the second image may be converted into an image that would have been captured in a state in which the first camera 171 and the second camera 172 are disposed parallel to each other.
  • the processor 120 may acquire the depth of the ROI included in the plurality of images by using the plurality of converted images.
  • the processor 120 may acquire the depth of the ROI by executing the depth calculation module 137 stored in the memory 130 .
  • the processor 120 may acquire the depth of the ROI by using the first and second images converted by the image processing module 136 .
  • the processor 120 may calculate the depth of the ROI by extracting corresponding feature points from the first and second images based on the stereo vision method.
  • the processor 120 a disparity value for the extracted feature point, a baseline value indicating a distance between the first camera 171 and the second camera 172 , and a focus of the camera module 175 .
  • the depth of the ROI included in the first and second images may be calculated using the distance.
  • the processor 120 may generate a depth map by calculating the depth of the ROI in the image.
  • a depth map is an image representing three-dimensional distance information of spaces or objects existing in an image, and each pixel value in the image may represent information about the depth of a corresponding pixel.
  • the information about the depth may be a value indicating a distance from a view point to a space corresponding to a specific pixel.
  • the depth map may distinguish a part distant from a view point and a part close to it. For example, in the depth map, from the point of view of the user from the distant part to the close part may be displayed in a gradation method so that it gradually darkens from white to black. Accordingly, shapes and depths of objects in the surrounding space of the electronic device 100 may be differentiatedly expressed in the depth map.
  • the processor 120 may acquire the depth of the ROI by using the artificial intelligence model.
  • the processor 120 may obtain information about the depth of the region of interest by inputting the plurality of images acquired by the camera module 175 to the artificial intelligence model trained to calculate the depth of the region of interest from the plurality of images. have.
  • the depth information of the region of interest obtained from the AI model may be used to verify the depth calculated by the depth calculation module 137, but is not limited thereto.
  • images photographed through the camera module 137 and depth information calculated by the depth calculation module 137 may be used to update an artificial intelligence model learned for depth calculation.
  • the processor 120 may operate the photographing mode of the camera module 175 as the gaze recognition mode by executing the gaze recognition module 138 stored in the memory 130 .
  • the processor 120 may acquire the user's gaze information through the gaze tracking sensor 160 by executing the gaze recognition module 138 .
  • the processor 120 may acquire information about the gaze point based on the gaze information.
  • the processor 120 may measure the depth of the ROI toward which the user's gaze is directed by determining the ROI based on the gaze point.
  • the processor 120 may determine the shooting directions of the first camera 171 and the second camera 172 so as to measure the depth of the ROI including the changed gaze point. can be controlled to change Accordingly, the processor 120 may measure the depth of the ROI while tracking the gaze point toward which the user's gaze is directed.
  • the processor 120 may operate the photographing mode of the camera module 175 as the object recognition mode by executing the object recognition module 139 stored in the memory 130 .
  • the processor 120 may recognize a predetermined target object from an image obtained by driving the camera module 175 using a predetermined object tracking algorithm by executing the object recognition module 139 .
  • the processor 120 may measure the depth of the target object by determining the target object as the ROI.
  • the processor 120 determines the shooting directions of the first camera 171 and the second camera 172 so that the depth of the target object can be measured based on the changed location of the target object. You can control it to change. Accordingly, the processor 120 may measure the depth of the ROI including the target object while tracking the movement of the target object.
  • the processor 120 may operate the photographing mode of the camera module 175 as the gesture recognition mode by executing the gesture recognition module 140 stored in the memory 130 .
  • the processor 120 may recognize the position of the user's hand by executing the gesture recognition module 140 .
  • the processor 120 may measure the depth of the region where the hand is located by determining the region where the hand is located as the region of interest.
  • the processor 120 captures the first camera 171 and the second camera 172 so that the depth of the area where the hand is located can be measured based on the changed hand position. You can control it to change direction. Accordingly, the processor 120 may measure the depth of the region where the hand is located while tracking the movement of the hand position.
  • the processor 120 may operate the photographing mode of the camera module 175 as the spatial recognition mode by executing the spatial recognition module 141 stored in the memory 130 .
  • the processor 120 may recognize the space around the electronic device 100 by executing the space recognition module 141 .
  • the processor 120 may measure the depth of the space around the electronic device 100 by determining the surrounding space included in the photographable angle by the camera module 175 as the ROI.
  • the processor 120 may acquire a plurality of images by photographing the surrounding space while controlling the first camera 171 and the second camera 172 to rotate according to a preset time interval, a preset direction, and an angle. Accordingly, the processor 120 may generate a depth map of the surrounding space by using a plurality of images including the surrounding space.
  • FIG 3 is a view for explaining an example in which a camera module in an electronic device rotates, according to an exemplary embodiment.
  • the camera module 175 ( FIG. 1 ) includes a frame of the electronic device 100 and the first camera 171 built in an outer region of the left eye lens unit among the frame regions of the electronic device 100 embodied in the shape of glasses.
  • a second camera 172 built in an outer region of the right eye lens unit may be included in the region. Since the first camera 171 and the second camera 172 have the same structure and operate in the same manner, description will be made based on the first camera 171 in FIG. 3 .
  • FIG. 3 is a diagram schematically illustrating the structure of the upper end 175a and side 175b of the first camera 171 built in the electronic device 100, but is not limited thereto.
  • the first camera 171 may be mounted on the electronic device 100 in a structure that can be panned or tilted at a predetermined angle in a predetermined direction with respect to the rotation center 31 .
  • the first camera 171 may include a pivot serving as a central axis for balancing the lens unit mounted in a rotatable structure and the rotating lens unit. Accordingly, the first camera 171 may be inclined at a predetermined angle in a predetermined direction with respect to the rotation center 31 , or may rotate clockwise or counterclockwise.
  • the camera module 175 of FIG. 3 is not limited thereto as an example, and the first camera 171 may be mounted on the electronic device 100 in a rotatable structure to change a photographing direction.
  • FIG. 4 is a flowchart illustrating an operation in which an electronic device acquires a depth of an ROI by using rotatable first and second cameras, according to an exemplary embodiment.
  • the electronic device 100 may determine a region of interest according to a function being executed.
  • the region of interest may mean a region in an image that requires depth measurement.
  • the electronic device 100 may determine an ROI according to execution of a predetermined application. For example, as an application requiring depth measurement is executed, the electronic device 100 may determine a specific object, an object to which the user's gaze is directed, a user's hand, or a surrounding space, as the region of interest.
  • the electronic device 100 may identify a photographing mode of the camera module 175 and determine a region of interest according to the photographing mode. For example, when executing the object recognition mode, the electronic device 100 may determine a region in which the target object is located as the region of interest.
  • the electronic device 100 controls the first and second cameras to be displaced based on a predetermined combination of the photographing directions of the first camera and the second camera, so that two or more images each including a region of interest can be obtained.
  • the electronic device 100 may control the first and second cameras 171 and 172 to be photographed based on a preset default photographing direction. Also, the electronic device 100 may control the first and second cameras 171 and 172 based on a photographing direction required as a predetermined application is executed. Also, the electronic device 100 may identify a photographing mode and control the first and second cameras 171 and 172 based on a preset photographing direction corresponding to the photographing mode.
  • the electronic device 100 determines the combination of the photographing directions to be changed.
  • the electronic device 100 may determine a combination of photographing directions corresponding to at least one depth measurement region that may include a region of interest based on the pre-calculated information on the depth measurement region.
  • the electronic device 100 may control the first and second cameras 171 and 172 to be displaced based on the determined combination of photographing directions.
  • the electronic device 100 may acquire at least two or more images captured by the first camera 171 and the second camera 172 .
  • the electronic device 100 may acquire the depth of the ROI by using the two or more acquired images.
  • the electronic device 100 may convert the obtained image into an obtainable image on the assumption that the first camera and the second camera are photographed in parallel to each other.
  • the electronic device 100 may acquire the depth of the ROI by using the converted image.
  • the electronic device 100 may calculate the depth of the ROI based on a stereo vision method using two or more images. Also, the electronic device 100 may acquire the depth of the ROI by using an artificial intelligence model trained to calculate the depth of the ROI from a plurality of images.
  • FIG. 5 is a flowchart illustrating a method of determining a region of interest according to a photographing mode.
  • the electronic device 100 may identify a photographing mode of the camera module.
  • the electronic device 100 may identify a photographing mode being executed in the electronic device 100 .
  • the photographing mode may include at least one of a gaze recognition mode, an object recognition mode, a gesture recognition mode, and a space recognition mode.
  • the electronic device 100 may determine a region of interest according to the identified photographing mode.
  • the electronic device 100 may determine a region requiring depth measurement according to a photographing mode being executed among a plurality of photographing modes as a region of interest, and may measure the determined depth of the region of interest.
  • FIG. 6 is a diagram for explaining an example of determining an ROI in a gaze recognition mode.
  • the electronic device 100 includes a first eye tracking sensor 161 for tracking a gaze of one eye and a second gaze tracking sensor 162 for tracking a gaze of the other eye. ) may be included.
  • the electronic device 100 may obtain gaze information using the gaze tracking sensor 160 ( FIG. 2 ) for tracking gazes of both eyes of the user.
  • the gaze information may include at least one of a gaze direction of the user's eye, a pupil position of the user's eye, or coordinates of a center point of the pupil.
  • the electronic device 100 may obtain information about the gaze point based on the gaze information.
  • the information about the gaze point may include two-dimensional location information about the gaze point.
  • the two-dimensional location information may mean two-dimensional coordinate information (eg, an x-coordinate value and a y-coordinate value) of a gazing point at which the user is gazing.
  • the electronic device 100 may determine the ROI based on the gaze point.
  • the ROI may refer to a gazing point at which the user gazes and a preset surrounding area around the gazing point.
  • the electronic device 100 may determine a gazing point 601 at which both eyes of the user are gazing and a preset surrounding area 602 based on the gazing point 601 as the ROI.
  • FIG. 7 is a diagram for explaining an example of determining a region of interest in an object recognition mode.
  • the electronic device 100 may determine a predetermined target object as the ROI according to the execution of the object recognition mode.
  • the electronic device 100 may acquire an image by controlling the first and second cameras 171 and 172 according to a preset shooting direction in response to the object recognition mode.
  • the electronic device 100 may control the first and second cameras 171 and 172 so that the first and second cameras 171 and 172 face the front in a parallel state.
  • the electronic device 100 may recognize a predetermined target object from images acquired by the first and second cameras 171 and 172 using a predetermined object tracking algorithm. Referring to FIG. 7 , the electronic device 100 may recognize a predetermined target object, for example, a flowerpot, and determine the flowerpot 701 as an ROI.
  • a predetermined target object for example, a flowerpot
  • FIG. 8 is a diagram for explaining an example of determining a region of interest in a gesture recognition mode.
  • the electronic device 100 may determine the region where the user's hand is located as the region of interest.
  • the electronic device 100 may control the first and second cameras 171 and 172 based on a preset combination of shooting directions in response to the gesture recognition mode. For example, the electronic device 100 may control the first and second cameras 171 and 172 to be displaced based on a photographing direction in which a close-range photographing is possible while facing the center of the electronic apparatus 100 . The electronic device 100 may recognize the region where the user's hand is located and determine the region 801 where the hand is located as the region of interest.
  • FIG. 9 is a diagram for explaining an example of determining a region of interest in a spatial recognition mode.
  • the electronic device 100 may determine the surrounding space included in the photographable angle by the camera module 175 as the region of interest.
  • the electronic device 100 captures the surrounding space while controlling the first camera 171 and the second camera 172 to rotate according to a preset time interval, preset direction and angle, and controls the surrounding space 901 , 902 , 903 , 904) may be determined as the region of interest.
  • FIG. 10 is a diagram for explaining a method of converting acquired images.
  • the electronic device 100 may first Assuming that the camera 171 and the second camera 172 are photographed in a state in which they are parallel to each other, conversion processing may be performed into an obtainable image.
  • the electronic device 100 may extract first feature points 1003 , 1005 , and 1007 on a first image 1001 captured by the first camera 171 . Also, in the electronic device 100 , the second feature points 1004 , 1006 , and 1008 matching the first feature points 1003 , 1005 , and 1007 on the second image 1002 captured by the second camera 172 . can be identified.
  • the electronic device 100 displays a second point on the space or object included in the second image 1002 that is the same as the first feature points 1003 , 1005 , and 1007 on the space or object included in the first image 1001 . Feature points 1004 , 1006 , and 1008 may be identified.
  • the electronic device 100 performs a function between the first camera 171 and the second camera 172 based on the matching of the first feature points 1003 , 1005 , and 1007 with the second feature points 1004 , 1006 , and 1008 .
  • a state in which the first image 1001 and the second image 1002 are arranged in parallel with the first camera 171 and the second camera 172 while maintaining the baseline value b indicating the interval can be converted into an obtainable image by assuming .
  • the first feature points 1003 , 1005 , and 1007 and the second feature points 1004 , 1006 , and 1008 illustrated in FIG. 10 illustrate an example and are not limited thereto.
  • the electronic device 100 may match a predetermined number of feature points on a space or object included in the first image 1001 and the second image 1002 using a predetermined image processing algorithm.
  • 11 is a diagram for explaining a method of matching feature points in an ROI.
  • the electronic device 100 includes a first image 1101 and a second image ( 1102 ), the depth of the ROI included in the first image 1101 and the second image 1102 may be acquired.
  • the electronic device 100 extracts a first feature point 1105 from a region of interest 1103 on a first image 1101 , and selects a first feature point 1105 from a region of interest 1104 on a second image 1102 .
  • a second feature point 1106 matching the first feature point 1105 may be extracted.
  • the electronic device 100 may extract the first feature point 1105 from the second image 1102 and the second feature point 1106 indicating the same point in real space.
  • FIG. 12 is a diagram for explaining a method of calculating a disparity value d for a feature point.
  • the electronic device 100 calculates a disparity value d between the first feature point 1105 on the first image 1101 and the second feature point 1106 on the second image 1102 .
  • the disparity value d may be a value indicating how much a certain feature point in one image is shifted on another image among the two images.
  • the electronic device 100 may virtually arrange two images in order to calculate a disparity value d from the two images.
  • the disparity value d between the first feature point 1105 and the second feature point 1106 is the first image 1101 and the second image 1102 on the first vertical axis 1201 . It may be determined by calculating a distance between the first feature point 1105 and the second feature point 1106 when aligned with respect to the second vertical axis 1202 . The distance between the first feature point 1105 and the second feature point 1106 is calculated by the distance between the first vertical line 1203 passing the first feature point 1105 and the second vertical line 1204 passing the second feature point 1106 can be
  • FIG. 13 is a diagram for describing a method of calculating a depth z of an ROI.
  • the electronic device 100 sets a disparity value d for a feature point (see FIG. 12 ) and a baseline indicating a distance between the first camera 171 and the second camera 172 .
  • the depth z of the ROI may be calculated using the (baseline) value b and the focal length f of the camera module 175 .
  • a baseline value b may be calculated as a distance between the lens center O of the first camera 171 and the lens center O′ of the second camera 172 .
  • a point P in the 3D space may appear as an x point on the first image plane and an x' point on the second image plane.
  • the disparity value d may be calculated as the difference between the x point and the x' point.
  • the depth z of the point P may be calculated as in Equation 1 below.
  • Depth (z) (baseline value (b) x focal length (f)) / disparity value (d)
  • the depth of the P point (z) may be calculated using a disparity value d between the first feature point 1105 and the second feature point 1106 based on Equation 1 .
  • FIG. 14 is a diagram for explaining a method of generating a depth map based on depth calculation.
  • the electronic device 100 may generate a depth map indicating depths of spaces or objects existing in the image by calculating the depth of the region of interest in the image.
  • the electronic device 100 controls the first and second cameras 171 and 172 to change the photographing direction to a predetermined direction and a predetermined angle based on a preset photographing time interval. You can shoot multiple times sequentially around the . Accordingly, a plurality of images sequentially photographed by the electronic device 100 by the first and second cameras 171 and 172 may include the same object or space between adjacent photographed images.
  • the first image 1401 , the second image 1402 , the third image 1403 , and the fourth image 1404 shown in FIG. 14 , the shooting directions of the first and second cameras 171 and 172 are set at predetermined angles. This is an example of a plurality of images taken while sequentially changing to .
  • the electronic device 100 may acquire the depth of the surrounding space by using the plurality of images 1401 , 1402 , 1403 , and 1404 including the adjacent surrounding space.
  • the electronic device 100 may extract a feature point from the same object or space included in at least two or more images and acquire the depth of the feature point based on matching of the feature points. For example, a first feature point 1405 in the first image 1401 may be matched with a second feature point 1406 representing the same point in real space as the first feature point 1405 in the second image 1402 . can also, the third feature point 1407 in the second image 1402 may match the third feature point 1407 in the third image 1403 and the fourth feature point 1408 indicating the same point in real space. . Also, the fourth feature point 1408 in the third image 1403 may be matched with the fourth feature point 1408 in the fourth image 1404 and the fifth feature point 1409 indicating the same point in real space. . The electronic device 100 may obtain the depth of the feature point by using the disparity value d between the matching feature points.
  • the electronic device 100 acquires the depths of spaces or objects included in the plurality of images 1401 , 1402 , 1403 , and 1404 , and uses the acquired depth information to determine a part farther from a viewpoint and a part close to it.
  • a depth map 1410 representing distinctly may be generated.
  • the matching of the feature points illustrated in FIG. 14 is for describing a matching method, but is not limited thereto.
  • the electronic device 100 may obtain a depth of a region overlapping between images based on matching a plurality of feature points between two or more images and may generate a depth map.
  • 15 is a flowchart illustrating an operation of changing a photographing direction of a camera module according to an exemplary embodiment.
  • the electronic device 100 may determine that at least a portion of the region of interest is outside the depth measurement region corresponding to the combination of the photographing directions of the first and second cameras.
  • the depth measurement area may mean a three-dimensional area in which depth can be measured using the first camera 171 and the second camera 172 .
  • the electronic device 100 may determine the combination of the photographing directions to be changed.
  • the depth of the ROI may be measured using an image captured according to a combination of the current shooting directions of the first camera 171 and the second camera 172 . none. Therefore, it is necessary to change the combination of the shooting directions of the first camera 171 and the second camera 172 so that the region of interest enters the depth measurement region of the first camera 171 and the second camera 172 . have.
  • the electronic device 100 may determine a combination of photographing directions corresponding to at least one depth measurement area including the ROI, based on the pre-calculated information on the depth measurement area.
  • the electronic device 100 may determine a combination of the photographing direction to be changed between the first camera 171 and the second camera 172 so that the ROI for which the depth is to be measured may be included in the depth measurement region.
  • the electronic device 100 may acquire two or more images each including an ROI by controlling the first and second cameras to be displaced based on the determined combination of photographing directions.
  • the electronic device 100 may acquire the depth of the ROI by using two or more images.
  • 16 is a diagram for describing an example of changing a photographing direction according to a change in a position of a region of interest. 16 illustrates an example of changing the imaging direction when the position of the ROI is changed from the first ROI 1602 to the second ROI 1604 .
  • the first region of interest 1602 is located within the first depth measurement region 1601 . Since it is included, the depth of the first ROI 1602 may be acquired.
  • the partial region of the second region of interest 1604 becomes the first depth. It may be outside the measurement area 1601 . For example, when the electronic device 100 captures an image while tracking the target object, the moving target object may come closer to the electronic device 100 .
  • the electronic device 100 may allow the second region of interest 1604 to enter the depth measurement region of the first camera 171 and the second camera 172 .
  • the electronic device 100 may allow the second region of interest 1604 to enter the depth measurement region of the first camera 171 and the second camera 172 .
  • the electronic device 100 may detect a combination of imaging directions corresponding to the depth measurement region that may include the second ROI 1604 based on the pre-calculated information on the depth measurement region. Referring to FIG. 16 , the electronic device 100 controls the photographing directions of the first camera 171 and the second camera 172 to face the center of the electronic device 100 based on a combination of the detected photographing directions. By doing so, the depth of the second region of interest 1604 included in the second depth measurement region 1603 may be acquired.
  • 17 is a view for explaining another example of changing a photographing direction according to a change in a position of a region of interest. 17 illustrates an example of changing the imaging direction when the position of the ROI is changed from the first ROI 1702 to the second ROI 1704 .
  • the first region of interest 1702 is the first depth measurement region ( 1701), the depth of the first ROI 1702 may be acquired.
  • the location of the ROI at which the electronic device 100 intends to measure the depth may move away from the first ROI 1702 to the second ROI 1704 .
  • the moving target object may move away from the electronic device 100 .
  • the electronic device 100 may detect a combination of imaging directions more suitable for measuring the depth of the second ROI 1704 based on the pre-calculated information on the depth measurement region.
  • the electronic device 100 controls the first camera 171 and the second camera 172 to face the front in parallel, so that the second region of interest 1704 is included in the second depth measurement region 1703 , and more
  • the first camera 171 and the second camera 172 may be changed so that a long-distance space or object may be photographed.
  • 18 is a diagram for explaining another example of changing a photographing direction according to a change in a position of a region of interest. 18 illustrates an example of changing the imaging direction when the position of the ROI is changed from the first ROI 1802 to the second ROI 1804 .
  • the first region of interest 1802 is the first depth measurement region ( 1801), the depth of the first ROI 1802 may be acquired.
  • the position of the region of interest at which the electronic device 100 intends to measure the depth is changed from the first region of interest 1802 to the second region of interest 1804 in a right direction with respect to the electronic device 100 .
  • the moving target object may move to the right with respect to the electronic device 100 .
  • the electronic device 100 may detect a combination of imaging directions in which the depth of the second ROI 1804 can be measured, based on the previously calculated information on the depth measurement region.
  • the electronic device 100 includes the first camera 171 and the second ROI 1804 to enter the depth measurement regions of the first camera 171 and the second camera 172 .
  • the photographing direction of the second camera 172 may be controlled to face the right direction of the electronic device 100 . Accordingly, the electronic device 100 may acquire the depth of the second ROI 1804 included in the second depth measurement region 1803 corresponding to the combination of the shifted photographing directions.
  • the moving target object may move to the left with respect to the electronic device 100 .
  • the region of interest corresponding to the changed position of the target object corresponds to the combination of the photographing directions of the first camera 171 and the second camera 172 based on the information on the depth measurement region calculated in advance.
  • the photographing directions of the first camera 171 and the second camera 172 may be controlled to face the left direction of the electronic device 100 so as to enter the depth measurement area. Accordingly, the electronic device 100 may acquire the changed depth of the ROI.
  • 19 is a diagram for explaining an example of changing a photographing direction according to a change in the size of a region of interest. 19 illustrates an example of changing the imaging direction when the size of the ROI is extended from the first ROI 1902 to the second ROI 1904 .
  • the first ROI 1902 has a first depth. Since it is included in the measurement region 1901 , the depth of the first ROI 1902 may be acquired.
  • a partial region of the second region of interest 1904 becomes the first depth measurement region. (1901) can escape.
  • the electronic device 100 captures an image while tracking the user's gaze, the size of the ROI may be enlarged as the object the user gazes at is changed.
  • the electronic device 100 may move the second region of interest 1904 into the depth measurement region of the first camera 171 and the second camera 172 .
  • the photographing directions of the first camera 171 and the second camera 172 move toward the center of the electronic device 100 based on the information on the depth measurement area calculated in advance.
  • the depth of the second region of interest 1904 included in the second depth measurement region 1903 may be acquired by controlling the direction to be directed.
  • 20 is a view for explaining another example of changing a photographing direction as the size of the ROI is changed. 20 illustrates an example of changing the imaging direction when the size of the ROI is reduced from the first ROI 2002 to the second ROI 2004. As shown in FIG.
  • the first ROI 2002 is Since it is included in the first depth measurement region 2001 , the depth of the first ROI 2002 may be acquired.
  • the size of the region of interest in which the electronic device 100 intends to measure the depth may be reduced to the second region of interest 2004 .
  • the size of the ROI may be reduced as the object the user gazes at is changed.
  • the electronic device 100 may detect a combination of imaging directions more suitable for measuring the depth of the second ROI 2004 based on the previously calculated information on the depth measurement region.
  • the electronic device 100 controls the first camera 171 and the second camera 172 to face the front in parallel, so that the second region of interest 2004 is included in the second depth measurement region 2003 and more
  • the first camera 171 and the second camera 172 may be changed so that a long-distance space or object may be photographed.
  • 21 is a block diagram of an electronic device according to an embodiment.
  • the electronic device 100 may be an augmented reality device that provides an augmented reality image having a communication function and a data processing function, but is not limited thereto.
  • the electronic device 100 includes a gaze tracking sensor 160 , a motion sensor 150 , a camera 175 , a memory 130 , a processor 120 , and a display 140 . ), a communication unit 180 , a microphone 190 , and a user input unit 195 .
  • the electronic device 100 may be implemented by more components than those illustrated in FIG. 21 , or the electronic device 100 may be implemented by fewer components than those illustrated in FIG. 21 .
  • the motion sensor 150 may be an Inertial Measurement Unit (IMU).
  • IMU Inertial Measurement Unit
  • the IMU may be a combination of sensors configured to detect movement of an object in three-dimensional space, ie, changes in position and orientation.
  • the combination of sensors may include an accelerometer, a gyroscope, a geomagnetometer, and a gyroscope.
  • the motion sensor 150 may include at least one of an acceleration sensor, a magnetic sensor, and a gyroscope sensor.
  • the display 140 may output information processed by the processor 120 .
  • the display 140 may display a virtual object.
  • the display 140 may provide an augmented reality (AR) image.
  • the display 140 may include a waveguide and a display module.
  • the wave guide may be made of a transparent material through which a partial region of the rear surface is visible when the user wears the electronic device 100 .
  • the wave guide may be composed of a flat plate having a single-layer or multi-layer structure made of a transparent material through which light is reflected and propagated therein.
  • the wave guide may receive the light of the virtual image projected to face the emission surface of the display module.
  • the transparent material means a material through which light can pass, the transparency may not be 100%, and it may have a predetermined color.
  • the wave guide is formed of a transparent material
  • the user can see the virtual object of the virtual image through the display 140 as well as the external real scene, so that the wave guide is see-through. It may be referred to as a see through display.
  • the display 140 may provide an augmented reality image by outputting a virtual object of a virtual image through the wave guide.
  • the communication unit 180 may include one or more components that allow communication between the electronic device 100 and the external device 200 ( FIG. 21 ) or a server (not shown).
  • the communication unit 180 may include a short-distance communication unit and a mobile communication unit.
  • the short-distance communication unit includes a Bluetooth communication unit, a short-range wireless communication unit (NFC/RFID unit), a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared (IrDA) communication unit, an ultra wideband (UWB) communication unit, an Ant+ communication unit, etc. may be included, but is not limited thereto.
  • the mobile communication unit transmits/receives a radio signal to and from at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text/multimedia message.
  • the electronic device 100 may transmit a plurality of images acquired using the camera 175 to the external device 200 ( FIG. 21 ) through the communication unit 180 . Accordingly, the external device 200 may perform image conversion on a plurality of images. Also, the electronic device 100 may receive the image converted by the external device 200 through the communication unit 180 , and calculate the depth of the ROI by using the received image.
  • the electronic device 100 transmits, through the communication unit 180 , a plurality of images acquired using the camera 175 to the external device 200 ( FIG. 21 ), and the external device 200 . may calculate the depth of the ROI by using the plurality of images.
  • the electronic device 100 receives, through the communication unit 180 , information on the depth calculated by the external device 200 , and uses the received information on the depth of the ROI through the display 140 .
  • An augmented reality service may be provided, such as displaying a virtual object.
  • the microphone 190 receives an external sound signal and processes it as electrical voice data.
  • the microphone 190 may receive an acoustic signal from an external device or a speaker.
  • the microphone 190 may use various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.
  • the microphone 190 may receive a user's voice input for controlling the electronic device 100 .
  • the user input unit 195 means a means for a user to input data for controlling the electronic device 100 .
  • the user input unit 195 may include a key pad, a dome switch, and a touch pad (contact capacitance method, pressure resistance film method, infrared sensing method, surface ultrasonic conduction method, integral type). It may include at least one of a tension measurement method, a piezo effect method, etc.), a jog wheel, or a jog switch, but is not limited thereto.
  • the user input unit 190 may receive a user input for photographing the surroundings of the electronic device 100 using the camera module 175 . Also, the user input unit 190 may receive a user input for receiving a service from the electronic device 100 or a server (not shown) based on the captured image.
  • 22 is a block diagram of an electronic device and an external device according to an exemplary embodiment.
  • the electronic device 100 may operate in association with the external device 200 .
  • the electronic device 100 transmits a plurality of images acquired by the camera module 175 to the external device 200, the external device 200 calculates a depth using the plurality of images, and provides information about the depth. It may be provided to the electronic device 100 .
  • the components of the electronic device 100 illustrated in FIG. 22 may correspond to the components of the electronic device 100 illustrated in FIGS. 2 and 20 , and thus a description thereof will be omitted.
  • the external device 200 shown in FIG. 22 may include a processor 220 , a memory 230 , and a communication unit 280 .
  • the components shown in FIG. 21 are not essential components of the external device 200 .
  • the external device 200 may be implemented by more components than those shown in FIG. 21 , or the external device 200 may be implemented by fewer components than those shown in FIG. 21 .
  • the processor 220 may control the external device 200 as a whole.
  • the processor 220 may include one or a plurality of processors.
  • the processor 220 according to an embodiment may execute one or more programs stored in the memory 230 .
  • the memory 230 may store various data, programs, or applications for driving and controlling the external device 200 .
  • a program stored in the memory 230 may include one or more instructions.
  • a program (one or more instructions) or an application stored in the memory 230 may be executed by the processor 220 .
  • the memory 230 may store a program for processing and controlling the processor 220 .
  • Programs stored in the memory 230 may be classified into a plurality of modules according to their functions. For example, operations performed by the depth measurement area calculation module 131 , the photographing direction determination module 134 , the image processing module 136 , the depth calculation module 137 of the electronic device 100 , and the like are performed by the external device 200 . ), a software module to be executed by the processor 220 may be stored in the memory 230 of the external device 200 .
  • the memory 230 may store a plurality of images received by the electronic device 100 and acquired by the camera module 175 .
  • the communication unit 280 may include one or more components that enable communication between the external device 200 and the electronic device 100 or between the external device 200 and a server (not shown).
  • the communication unit 280 may include a short-distance communication unit and a mobile communication unit.
  • the short-distance communication unit includes a Bluetooth communication unit, a short-range wireless communication unit (NFC/RFID unit), a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared (IrDA) communication unit, an ultra wideband (UWB) communication unit, an Ant+ communication unit, etc. may be included, but is not limited thereto.
  • the mobile communication unit transmits/receives a radio signal to and from at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text/multimedia message.
  • the external device 200 may receive a plurality of images from the electronic device 100 through the communication unit 280 . Also, the processor 220 of the external device 200 may convert the received image. Also, the processor 220 of the external device 200 may calculate the depth of the ROI included in the converted image.
  • the external device 200 may transmit the converted image to the electronic device 100 through the communication unit 280 . Also, the external device 200 may transmit information about the depth of the ROI to the electronic device 100 through the communication unit 280 .
  • the above-described embodiment can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable medium.
  • the structure of the data used in the above-described embodiment may be recorded in a computer-readable medium through various means.
  • the above-described embodiment may be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer.
  • methods implemented as a software module or algorithm may be stored in a computer-readable recording medium as computer-readable codes or program instructions.
  • Computer-readable media may be any recording media that can be accessed by a computer, and may include volatile and nonvolatile media, removable and non-removable media.
  • the computer readable medium may include a magnetic storage medium, for example, a ROM, a floppy disk, a hard disk, etc. does not Additionally, computer-readable media may include computer storage media and communication media.
  • a plurality of computer-readable recording media may be distributed in network-connected computer systems, and data stored in the distributed recording media, for example, program instructions and codes, may be executed by at least one computer. have.
  • ...unit and “module” mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.
  • Part and module are stored in an addressable storage medium and may be implemented by a program that can be executed by a processor.
  • part and module refer to components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and programs. It may be implemented by procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables.
  • A may include one of a1, a2, and a3" has a broad meaning that exemplary elements that may be included in the element A are a1, a2, or a3.
  • A may include a1, a2, or a3.
  • the above description does not necessarily mean that the elements constituting A are selectively determined within a predetermined set.
  • the above description is not necessarily to be construed as limiting that a1, a2, or a3 selected from the set including a1, a2 and a3 constitutes component A.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치는, 회전 가능한 제1 및 2 카메라를 포함하는 카메라 모듈, 하나 이상의 인스트럭션을 저장하는 메모리, 및 하나 이상의 인스터럭션을 실행하는 프로세서를 포함하고, 프로세서는, 실행 중인 기능에 따라 관심 영역을 결정하고, 미리 정해진 제1 카메라 및 제2 카메라의 촬영 방향의 조합에 기초하여 제1 및 2 카메라가 변향되도록 제어함으로써, 관심 영역을 각각 포함하는 두 개 이상의 이미지를 획득하고, 획득된 두 개 이상의 이미지를 이용하여 관심 영역의 깊이를 획득할 수 있다.

Description

전자 장치 및 그 동작 방법
다양한 실시 예들은, 전자 장치에 내장된 복수 개의 회전 가능한 카메라를 이용하여 관심 영역의 깊이를 획득하는 전자 장치 및 그 동작 방법에 관한 것이다.
증강 현실(Augmented Reality)은 현실 세계의 물리적 환경 공간이나 현실 객체(real world object) 상에 가상 이미지를 투영시켜 하나의 이미지로 보여주는 기술이다. 증강 현실 장치는 사용자의 안면부나 두부에 착용된 상태에서 사용자의 눈앞에 배치되는 시스루(see-through) 형태의 디스플레이 모듈을 통해 현실 장면(real scene)과 가상 이미지를 함께 볼 수 있게 한다.
이러한 증강 현실 장치가 현실 장면 상에 가상 이미지를 자연스럽게 보여지도록 하는 등 현실 객체의 깊이를 활용한 다양한 서비스를 제공하기 위해서는, 사용자에게 제공하는 증강 현실 서비스에 따라 요구되는 현실 공간에 대해서 깊이를 측정할 필요가 있다.
또한, 증강 현실 장치와 같은 소형 기기에 깊이 측정을 위한 센서를 탑재하기 위해 깊이 측정을 위한 센서의 소형화, 경량화와 저전력화에 대한 연구가 요구되고 있다.
전자 장치에 내장된 복수 개의 회전 가능한 카메라를 이용하여 관심 영역의 깊이를 획득하는 전자 장치 및 그 동작 방법을 제공하는 데 있다.
또한, 촬영 모드에 따라 복수 개의 카메라의 촬영 방향을 설정 또는 변경하는 전자 장치 및 그 동작 방법을 제공하는 데 있다.
해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
일 측면에 따른 전자 장치는, 회전 가능한 제1 및 2 카메라를 포함하는 카메라 모듈, 하나 이상의 인스트럭션을 저장하는 메모리, 및 하나 이상의 인스터럭션을 실행하는 프로세서를 포함하고, 프로세서는, 실행 중인 기능에 따라 관심 영역을 결정하고, 미리 정해진 제1 카메라 및 제2 카메라의 촬영 방향의 조합에 기초하여 제1 및 2 카메라가 변향되도록 제어함으로써, 관심 영역을 각각 포함하는 두 개 이상의 이미지를 획득하고, 획득된 두 개 이상의 이미지를 이용하여 관심 영역의 깊이를 획득할 수 있다.
다른 측면에 따른 회전 가능한 제1 및 2 카메라를 포함하는 전자 장치의 동작 방법은, 실행 중인 기능에 따라 관심 영역을 결정하는 단계, 미리 정해진 제1 및 2 카메라의 촬영 방향의 조합에 기초하여 제1 및 2 카메라가 변향되도록 제어함으로써, 관심 영역을 각각 포함하는 두 개 이상의 이미지를 획득하는 단계, 및 획득된 두 개 이상의 이미지를 이용하여 관심 영역의 깊이를 획득하는 단계를 포함할 수 있다.
또 다른 측면에 따라, 상술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
도 1은 일 실시 예를 개략적으로 설명하기 위한 도면이다.
도 2는 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 전자 장치 내의 카메라 모듈이 회전하는 예를 설명하기 위한 도면이다.
도 4는 일 실시 예에 따른 전자 장치가 회전 가능한 제1 및 2 카메라를 이용하여 관심 영역의 깊이를 획득하는 동작을 설명하기 위한 흐름도이다.
도 5는 촬영 모드에 따라 관심 영역을 결정하는 방법을 설명하기 위한 흐름도이다.
도 6은 시선 인식 모드에서 관심 영역을 결정하는 예를 설명하기 위한 도면이다.
도 7은 객체 인식 모드에서 관심 영역을 결정하는 예를 설명하기 위한 도면이다.
도 8은 제스처 인식 모드에서 관심 영역을 결정하는 예를 설명하기 위한 도면이다.
도 9는 공간 인식 모드에서 관심 영역을 결정하는 예를 설명하기 위한 도면이다.
도 10은 획득된 이미지들의 변환 방법을 설명하기 위한 도면이다.
도 11은 관심 영역 내의 특징점을 매칭하는 방법을 설명하기 위한 도면이다.
도 12는 특징점에 대한 디스패리티(disparity) 값(d)을 산출하는 방법을 설명하기 위한 도면이다.
도 13은 관심 영역의 깊이(z)를 산출하는 방법을 설명하기 위한 도면이다.
도 14는 깊이 산출에 기초하여 깊이 맵을 생성하는 방법을 설명하기 위한 도면이다.
도 15는 일 실시 예에 따른 카메라 모듈의 촬영 방향을 변경하는 동작을 설명하기 위한 흐름도이다.
도 16은 관심 영역의 위치가 변경됨에 따라 촬영 방향을 변경하는 일 예를 설명하기 위한 도면이다.
도 17은 관심 영역의 위치가 변경됨에 따라 촬영 방향을 변경하는 다른 일 예를 설명하기 위한 도면이다.
도 18은 관심 영역의 위치가 변경됨에 따라 촬영 방향을 변경하는 또 다른 일 예를 설명하기 위한 도면이다.
도 19는 관심 영역의 크기가 변경됨에 따라 촬영 방향을 변경하는 일 예를 설명하기 위한 도면이다.
도 20은 관심 영역의 크기가 변경됨에 따라 촬영 방향을 변경하는 다른 일 예를 설명하기 위한 도면이다.
도 21은 일 실시 예에 따른 전자 장치의 블록 구성도(block diagram)이다.
도 22는 일 실시 예에 따른 전자 장치와 외부 장치의 블록 구성도(block diagram)이다.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시 예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에서 사용되는 용어는, 본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 이 용어들에 의해 한정되어서는 안 된다. 이 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용된다.
또한, 본 개시에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것이며, 본 개시를 한정하려는 의도로 사용되는 것이 아니다. 단수의 표현은 문맥상 명백하게 단수를 뜻하지 않는 한, 복수의 의미를 포함한다. 또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서, 특히, 특허 청구 범위에서 사용된 “상기” 및 이와 유사한 지시어는 단수 및 복수 모두를 지시하는 것일 수 있다. 또한, 본 개시에 따른 방법을 설명하는 단계들의 순서를 명백하게 지정하는 기재가 없다면, 기재된 단계들은 적당한 순서로 행해질 수 있다. 기재된 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다.
본 명세서에서 다양한 곳에 등장하는 "일부 실시 예에서" 또는 "일 실시 예에서" 등의 어구는 반드시 모두 동일한 실시 예를 가리키는 것은 아니다.
본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
본 개시에서, '증강 현실(AR : Augmented Reality)'은 현실 세계의 물리적 환경 공간 내에 가상 이미지를 함께 보여주거나 현실 객체와 가상 이미지를 함께 보여주는 것을 의미한다.
아울러, '증강 현실 장치(Augmented Reality Device)'라 함은 '증강 현실(Augmented Reality)'을 표현할 수 있는 장치로서, 일반적으로 사용자가 안면부(顔面部)에 착용하는 안경 형상의 증강 현실 안경 장치(Augmented Reality Glasses) 뿐만 아니라, 두부(頭部)에 착용하는 헤드 마운트 디스플레이 장치 (HMD : Head Mounted Display Apparatus)나, 증강 현실 헬멧(Augmented Reality Helmet) 등을 포괄한다.
한편, '현실 장면(real scene)'이란 사용자가 증강 현실 장치를 통해서 보는 현실 세계의 장면으로서, 현실 객체(real world object)를 포함할 수 있다. 또한, '가상 이미지(virtual image)'는 광학 엔진을 통해 생성되는 이미지로 정적 이미지와 동적 이미지를 모두 포함할 수 있다. 이러한 가상 이미지는 현실 장면과 함께 관측되며, 현실 장면 속의 현실 객체에 대한 정보 또는 증강 현실 장치의 동작에 대한 정보나 제어 메뉴 등을 나타내는 이미지일 수 있다.
따라서, 일반적인 증강 현실 장치는 광원에서 생성된 광으로 구성되는 가상 이미지를 생성하기 위한 광학 엔진과 광학 엔진에서 생성된 가상 이미지를 사용자의 눈까지 안내하고 현실 세계의 장면도 함께 볼 수 있도록 투명한 재질로 형성된 도광판(Waveguide)을 구비한다. 전술한 바와 같이, 증강 현실 장치는 현실 세계의 장면도 함께 관측할 수 있어야 하므로 광학 엔진에서 생성된 광을 도광판을 통해 사용자의 눈까지 안내하기 위해서는 기본적으로 직진성을 가지는 광의 경로를 변경하기 위한 광학 소자(Optical element)가 필요하다. 이 때, 미러 등에 의한 반사를 이용하여 광 경로를 변경할 수도 있고, DOE(Diffractive optical element), HOE(Holographic optical element) 등과 같은 회절 소자에 의한 회절을 통해 광 경로를 변경할 수도 있으나 이에 한정되는 것은 아니다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 일 실시 예에 따른 전자 장치의 동작을 개략적으로 설명하기 위한 도면이다.
일 실시 예에 따른 전자 장치(100)는 증강 현실 장치(Augmented Reality Device)일 수 있다. 예를 들어, 도 1에 도시한 바와 같이, 전자 장치(100)는, 사용자의 안면부(顔面部)에 착용 가능한 안경 형상으로 구현된 장치일 수 있다. 또한, 전자 장치(100)는 사용자의 두부(頭部)에 착용 가능한 고글, 헬멧, 모자 등의 형상으로 구현된 장치일 수 있으며, 이에 한정되는 것은 아니다.
전자 장치(100)는 증강 현실 서비스를 제공하는 경우 가상 이미지를 디스플레이에 제공할 수 있다. 전자 장치(100)가 가상 이미지를 현실 객체의 형태, 배치, 깊이 등에 어우러져 보이도록 디스플레이에 제공하기 위해서 현실 객체의 깊이를 측정할 필요가 있다. 일 실시 예에 따르면, 전자 장치(100)는 회전 가능한 복수 개의 카메라를 통해 서로 다른 시점(view point)에서 획득된 복수 개의 이미지를 이용해서 현실 객체의 깊이를 측정할 수 있다.
도 1에 도시한 바와 같이, 전자 장치(100)의 카메라 모듈(175)은 제1 카메라(171)와 제2 카메라(172)를 포함할 수 있으며, 이에 한정되지 않는다. 카메라 모듈(175)은 3개 이상의 복수 개의 회전 가능한 카메라를 포함할 수도 있다.
제1 카메라(171)와 제2 카메라(172)는 촬영 방향이 변경될 수 있도록 상하 또는 좌우뿐만 아니라 소정 각도의 방향으로 회전 가능한 구조로 전자 장치(100)의 일부 영역에 장착 또는 설치될 수 있다. 도 1에 도시된 바와 같이, 제1 카메라(171)는 안경 형상으로 구현된 전자 장치(100)의 프레임 영역 중 좌안 렌즈부의 외측 영역에 내장된 형태로, 제2 카메라(172)는 전자 장치(100)의 프레임 영역 중 우안 렌즈부의 외측 영역에 내장된 형태로 장착 또는 설치될 수 있으나, 이에 한정되는 것은 아니다.
일 실시 예에 따라, 전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)를 이용하여 관심 영역의 깊이를 측정할 수 있다.
일 실시 예에 따라, 관심 영역은, 이미지 내에서 깊이 측정이 요구되는 영역일 수 있다. 예를 들어, 관심 영역은, 특정 객체, 사용자의 시선이 향하는 영역, 사용자의 손이 위치한 영역, 또는 주변 공간일 수 있으며, 이에 한정되지 않는다.
일 실시 예에 따라, 관심 영역의 깊이는, 카메라 모듈(175) 또는 카메라 모듈(175)을 포함한 전자 장치(100)로부터 관심 영역까지의 Z축 상의 거리를 의미할 수 있다. 도 1에 도시된 바와 같이, 3차원 공간 상에서 X축은 전자 장치(100)를 좌우로 지나는 기준 축이고, Y축은 전자 장치(100)를 상하로 지나는 기준 축이며, Z축은 전자 장치(100)를 전후로 지나는 기준 축일 수 있다. 또한, X축, Y축 및 Z축은 서로 수직을 이룰 수 있다.
일 실시 예에 따라, 전자 장치(100)는 관심 영역의 깊이 측정을 위한 제1 카메라(171) 및 제2 카메라(172)의 촬영 방향의 조합을 결정할 수 있다.
일 실시 예에 따라, 전자 장치(100)가 제1 카메라(171)를 통해 획득되는 제1 이미지와 제2 카메라(172)를 통해 획득되는 제2 이미지를 이용하여 관심 영역(105)의 깊이를 측정하기 위해서는, 제1 이미지와 제2 이미지에 모두 관심 영역(105)이 포함되어야 한다. 도 1에 도시한 바와 같이, 제1 이미지와 제2 이미지에 모두 관심 영역(105)이 포함되기 위해, 전자 장치(100)는 깊이 측정 영역(103) 내에 관심 영역(105)이 포함되도록 제1 카메라(171) 및 제2 카메라(172)의 촬영 방향의 조합을 설정 또는 변경할 수 있다.
일 실시 예에 따라, 깊이 측정 영역은, 제1 카메라(171)와 제2 카메라(172)를 이용하여 깊이를 측정할 수 있는 3차원 영역을 의미할 수 있다. 도 1을 참조하면, 깊이 측정 영역(103)은 제1 카메라(171)를 통해 촬영 가능한 FOV(Field of view)의 3차원 공간인 제1 촬영 영역(101)과 제2 카메라(172)를 통해 촬영 가능한 FOV(Field of view)의 3차원 공간인 제2 촬영 영역(102)이 중첩되는 3차원 영역일 수 있다.
일 실시 예에 따라, 전자 장치(100)는 회전 가능한 제1 카메라(171) 및 회전 가능한 제2 카메라(172)의 다양한 촬영 방향의 조합에 따라 서로 다른 깊이 측정 영역을 산출할 수 있다. 전자 장치(100)는 메모리(130)에 미리 저장된 제1 및 2 카메라의 촬영 방향의 조합에 따라 깊이 측정이 가능한 영역을 나타내는 깊이 측정 영역에 관한 정보에 기초하여, 관심 영역의 깊이를 효율적으로 획득하기 위한 최적의 촬영 방향의 조합을 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 회전 가능한 두 개의 카메라를 관심 영역의 깊이 측정을 위한 최적의 촬영 방향으로 각각 변향(變向)(change direction)함으로써, 보다 정확하고 빠르게 관심 영역의 깊이 측정이 가능할 수 있다.
또한, 일 실시 예에 따라, 전자 장치(100)는 식별된 촬영 모드에 따라, 깊이 측정이 요구되는 관심 영역의 깊이를 측정함으로써 증강 현실 서비스를 제공할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 응시 지점 또는 사용자의 손 위치에 근접하게 가상 이미지를 표시할 수 있다. 또한, 전자 장치(100)는 주변 공간에 대한 깊이 맵(depth map)을 생성할 수 있다.
한편, 일 실시 예에 따르면, 전자 장치(100)는 회전 가능한 카메라를 구비함으로써, ToF(Time-of-Flight) 센서를 구비하지 않아도, 관심 영역의 깊이 측정이 가능할 수 있다. 이에 따라, 전자 장치(100)의 소형화 및 경량화가 가능할 수 있으며, ToF 센서에 포함된 적외선 또는 광을 투사하기 위한 적어도 하나의 광원으로 구성된 에미터(emitter)를 포함하지 않으므로 저전력화가 가능할 수 있다.
또한, 일 실시 예에 따르면, 전자 장치(100)는 제1 카메라(171) 및 제2 카메라(172)가 회전 가능한 최대 각도 범위의 FOV(Field of view)를 갖는 이미지들을 획득할 수 있으므로, 다양한 촬영 각도를 확보하기 위해 고정적으로 배치되는 복수 개의 카메라를 대체할 수 있다. 이에 따라, 전자 장치(100)의 소형화와 경량화가 가능할 수 있다.
도 2는 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 2를 참조하면, 일 실시 예에 따른 전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)를 포함하는 카메라 모듈(175), 시선 추적 센서(160), 메모리(130) 및 프로세서(120)를 포함할 수 있다. 전자 장치(100)의 프로세서(120)는, 메모리(130)에 저장된 프로그램들을 실행함으로써, 카메라 모듈(175), 시선 추적 센서(160) 등을 전반적으로 제어할 수 있다.
일 실시 예에 따른 카메라 모듈(175)은 전자 장치(100)의 주변을 촬영할 수 있다. 일 실시 예에 따른 카메라 모듈(175)은 회전 가능한 제1 카메라(171) 및 회전 가능한 제2 카메라(172)를 포함하는 두 개 이상의 카메라를 포함할 수 있다.
카메라 모듈(175)은 촬영 기능을 요구하는 애플리케이션이 실행되는 경우에 이미지 센서를 통해 정지 영상 또는 동영상 등의 화상 프레임을 획득할 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(120) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
일 실시 예에 따른 카메라 모듈(175)은 회전함으로써 촬영 방향을 변경할 수 있다. 카메라 모듈(175)은 패닝(panning) 또는 틸팅(tilting)됨으로써 촬영 방향을 변경할 수 있는 하드웨어 구조를 포함할 수 있다. 카메라 모듈(175)은 상하 또는 좌우뿐만 아니라 소정의 축을 기준으로 시계 또는 반시계 방향으로 회전할 수 있다.
일 실시 예에 따라, 카메라 모듈(175)은, 프로세서(120)의 제어에 의해 소정 방향으로 소정 각도 회전함으로써 촬영 방향을 변경하여 주변을 촬영할 수 있다. 또한, 카메라 모듈(175)은, 프로세서(120)의 제어에 의해 소정 방향으로 회전하면서 전자 장치(100)의 주변을 순차적으로 촬영할 수 있다.
제1 카메라(171) 및 제2 카메라(172)는 각각 독립적으로 회전 가능한 범위 내에서 소정 방향으로 소정 각도로 회전할 수 있다.
또한, 제1 카메라(171) 및 제2 카메라(172)는 소정 범위 내에서 서로 평행한 상태를 유지하면서, 예컨대 좌측 또는 우측의 동일한 방향으로 소정 범위 내에서 동일한 각도로 회전할 수 있다. 이에 따라, 제1 카메라(171)의 제1 촬영 방향과 제2 카메라(172)의 제2 촬영 방향은, 서로 평행한 방향일 수 있다.
또한, 예를 들어, 제1 카메라(171)의 제1 촬영 방향은 전자 장치(100)의 좌안 렌즈부와 우안 렌즈부의 중심부를 향하고, 제2 카메라(172)의 제2 촬영 방향도 좌안 렌즈부와 우안 렌즈부의 중심부를 향하는 방향일 수 있다. 다시 말해, 제1 카메라(171)와 제2 카메라(172)가 각각 소정 각도로 전자 장치(100)의 중심부를 향한 방향으로 촬영할 수 있다.
일 실시 예에 따른 시선 추적 센서(160)는 사용자 눈의 시선 정보를 검출할 수 있다. 일 실시 예에 따라, 시선 정보는, 사용자 눈이 바라보는 시선 방향, 사용자 눈의 동공 위치 또는 동공의 중심점 좌표 중 적어도 하나를 포함할 할 수 있다.
시선 추적 센서(160)는, 사용자의 눈(왼쪽 눈 또는 오른쪽 눈)에 광을 제공하고, 사용자의 눈으로부터 반사된 광량을 감지할 수 있다. 시선 추적 센서(160)는, 감지된 광량에 기초하여, 사용자의 눈의 시선 방향, 사용자 눈의 동공 위치, 동공의 중심점 좌표 등을 검출할 수 있다.
또는, 시선 추적 센서(160)는, 사용자의 눈에 광을 제공하고, 사용자의 눈을 촬영할 수 있다. 시선 추적 센서(160)는 촬영된 사용자의 눈 영상에 기초하여, 사용자의 눈의 시선 방향, 사용자 눈의 동공 위치, 동공의 중심점 좌표 등을 검출할 수 있다.
일 실시 예에 따라, 시선 추적 센서(160)는 미리 정해진 시간 간격으로 전자 장치(100)를 착용 중인 사용자의 눈을 센싱함으로써, 사용자의 시선 정보를 획득할 수 있다.
일 실시 예에 따른 메모리(130)는 프로세서(120)에 의해 실행될 프로그램을 저장할 수 있고, 전자 장치(100)로 입력되거나 전자 장치(100)로부터 출력되는 데이터를 저장할 수 있다.
메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(130)에 저장된 프로그램들은 그 기능에 따라 복수 개의 소프트웨어 모듈들로 분류할 수 있는데, 예를 들어, 깊이 측정 영역 산출 모듈(131), 촬영 모드 식별 모드(132), 관심 영역 결정 모듈(133), 촬영 방향 결정 모듈(134), 촬영 모듈(135), 이미지 처리 모듈(136), 깊이 산출 모듈(137), 시선 인식 모듈(138), 제스처 인식 모듈(139), 객체 인식 모듈(140), 공간 인식 모듈(141)을 포함할 수 있으나, 이에 한정되는 것은 아니며, 이 중 일부를 저장하거나 다른 소프트웨어 모듈을 더 포함할 수 있다.
또한, 일 실시 예에 따라, 메모리(130)는 후술하는 깊이 측정 영역 산출 모듈(131)에 의해 산출된 깊이 측정 영역에 관한 정보를 저장할 수 있다. 메모리(130)는 제1 카메라(171) 및 제2 카메라(172)의 촬영 방향의 다양한 조합 별로 산출된 깊이 측정 영역에 관한 정보를 테이블 형태로 저장할 수 있다. 또한, 메모리(130)는 깊이 측정 영역에 대응하는 제1 카메라(171) 및 제2 카메라(172)의 촬영 방향의 조합을 검출하는 알고리즘을 저장할 수 있다.
프로세서(120)는 전자 장치(100)의 전반적인 동작을 제어한다. 프로세서(120)는, 메모리(130)에 저장된 명령어들이나 프로그램들을 실행함으로써, 전자 장치(100)가 수행하는 동작이나 기능을 제어할 수 있다. 예를 들어, 프로세서(120)는 제1 카메라(171)와 제2 카메라(172)를 포함하는 카메라 모듈(175), 시선 추적 센서(160) 등을 전반적으로 제어할 수 있다.
일 실시 예에 따라, 프로세서(120)는 하나 또는 복수의 프로세서로 구성될 수 있다. 프로세서(120)는 예를 들어, 중앙 처리 장치(Central Processing Unit), 마이크로 프로세서(microprocessor), 그래픽 프로세서(Graphic Processing Unit), ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), 및 FPGAs(Field Programmable Gate Arrays) 중 적어도 하나의 하드웨어로 구성될 수 있으나, 이에 한정되는 것은 아니다.
프로세서(120)는 메모리(130)에 저장된 깊이 측정 영역 산출 모듈(131)을 실행함으로써, 제1 카메라(171) 및 제2 카메라(172)에 의해 촬영 가능한 복수의 촬영 방향의 조합에 따라 깊이 측정이 가능한 영역을 산출할 수 있다.
프로세서(120)는 제1 카메라(171) 및 제2 카메라(172)의 촬영 방향의 다양한 조합 별로 산출된 깊이 측정 영역에 관한 정보를 테이블 형태로 메모리(130)에 저장할 수 있다. 또한, 프로세서(120)는 깊이 측정 영역에 대응하는 제1 카메라(171) 및 제2 카메라(172)의 촬영 방향의 조합을 검출하는 알고리즘을 메모리(130)에 저장할 수 있다.
일 실시 예에 따라, 깊이 측정 영역은, 제1 카메라(171)를 통해 촬영 가능한 FOV(Field of view)의 3차원 공간인 제1 촬영 영역과 제2 카메라(172)를 통해 촬영 가능한 FOV(Field of view)의 3차원 공간인 제2 촬영 영역이 중첩되는 3차원 영역일 수 있다.
프로세서(120)는 제1 촬영 영역과 제2 촬영 영역이 중첩되는 영역을 산출하기 위한 미리 저장된 알고리즘(예컨대, 소정 충돌 처리 알고리즘)에 기초하여, 제1 카메라(171)의 제1 촬영 방향에서의 제1 촬영 영역(101, 도 1 참조), 제2 카메라(172)의 제2 촬영 방향에서의 제2 촬영 영역(102, 도 1 참조)과 제1 카메라(171) 및 제2 카메라(172) 사이의 간격을 나타내는 베이스라인(baseline) 값을 이용하여, 깊이 측정 영역(103, 도 1 참조)을 산출할 수 있다.
또한, 제1 카메라(171)의 제1 촬영 영역(101, 도 1)은, 제1 카메라(171)의 미리 정해진 화각에 기초하여 산출된 FOVX(horizontal FOV), FOVY(vertical FOV), 제1 카메라(171)의 미리 정해진 픽셀(pixel) 크기를 이용하여 산출될 수 있다. 또한, 제2 카메라(172)의 제2 촬영 영역(102, 도 1)은, 제2 카메라(172)의 미리 정해진 화각에 기초하여 산출된 FOVX(horizontal FOV), FOVY(vertical FOV), 제2 카메라(172)의 미리 정해진 픽셀(pixel) 크기를 이용하여 산출될 수 있다.
프로세서(120)는 메모리(130)에 저장된 촬영 모드 식별 모드(132)를 실행함으로써, 카메라 모듈(175)의 촬영 모드를 식별할 수 있다.
카메라 모듈(175)의 촬영 모드는, 예를 들어, 사용자의 시선 방향의 객체를 추적하기 위한 시선 인식 모드, 전자 장치(100) 주변의 특정 객체를 추적하기 위한 객체 인식 모드, 사용자의 제스처를 인식하기 위한 제스처 인식 모드, 또는 전자 장치(100) 주변의 공간을 인식하기 위한 공간 인식 모드 중 적어도 하나를 포함할 수 있다.
프로세서(120)는 기 설정된 기준에 따라 카메라 모듈(175)의 촬영 모드를 식별할 수 있다.
예를 들어, 전자 장치(100)의 전원이 켜지거나 전자 장치(100)가 비활성화 상태에서 활성화되면, 프로세서(120)는 카메라 모듈(175)의 촬영 모드를 제스처 인식 모드로 식별할 수 있다. 또한, 예를 들어, 프로세서(120)는 제스처 인식 모드에서 사용자의 제스처를 인식하고 인식된 제스처에 따라 카메라 모듈(175)의 촬영 모드를 변경할 수 있다. 프로세서(120)는 제스처에 대응되는 애플리케이션을 실행하고, 실행된 애플리케이션이 요구하는 촬영 모드에 따라 카메라 모듈(175)의 촬영 모드를 변경할 수 있다.
또는, 예를 들어, 전자 장치(100)의 전원이 켜지거나 전자 장치(100)가 비활성화 상태에서 활성화되면, 프로세서(120)는 카메라 모듈(175)의 촬영 모드를 공간 인식 모드로 식별할 수 있다.
또한, 예를 들어, 프로세서(120)는 전자 장치(100)에 대한 기 설정된 사용자 입력이 수신되면, 카메라 모듈(175)의 촬영 모드를 시선 인식 모드, 객체 인식 모드, 제스처 인식 모드, 또는 공간 인식 모드 중 적어도 하나로 식별할 수 있다.
또한, 일 실시 예에 따라, 프로세서(120)는 제1 카메라(171)의 촬영 모드와 제2 카메라(172)의 촬영 모드를 서로 다르게 식별할 수 있다. 예를 들어, 프로세서(120)는 제1 카메라(171)의 촬영 모드는 시선 인식 모드로 식별하고, 제2 카메라(172)의 촬영 모드는 공간 인식 모드로 식별할 수 있다.
또한, 일 실시 예에 따라, 프로세서(120)는 미리 설정된 순서 및 시간 간격에 따라, 시선 인식 모드, 객체 인식 모드, 제스처 인식 모드, 또는 공간 인식 모드 중 어느 하나로 순차적으로 소정 시간 간격에 따라 변경되는 촬영 모드를 식별할 수 있다. 이러한 경우, 프로세서(120)는 하나의 촬영 모드에서 다른 촬영 모드로 변경되는 시점에 종료되는 촬영 모드에서의 관심 영역에 관한 정보(예컨대, 객체 인식 모드에서 추적 중인 객체의 최종 위치, 시선 추적 모드에서 최종 응시 지점 등)를 저장하고, 이후, 미리 설정된 주기에 따라 동일 촬영 모드가 재개될 때, 저장된 관심 영역에 관한 정보에 기초하여 촬영 모드를 재개할 수 있다.
프로세서(120)는 메모리(130)에 저장된 관심 영역 결정 모듈(133)을 실행함으로써, 깊이 측정이 요구되는 관심 영역을 결정할 수 있다.
일 실시 예에 따라, 프로세서(120)는 실행 중인 기능에 따라 관심 영역을 결정할 수 있다. 프로세서(120)는 소정 애플리케이션 실행에 따라, 관심 영역을 결정할 수 있다. 예를 들어, 관심 영역은, 특정 객체, 사용자의 시선이 향하는 영역, 사용자의 손이 위치한 영역, 또는 주변 공간일 수 있으며, 이에 한정되지 않는다.
또한, 일 실시 예에 따라, 프로세서(120)는 카메라 모듈(175)의 촬영 모드를 식별하고 식별된 촬영 모드에 따라 관심 영역을 결정할 수 있다.
예를 들어, 프로세서(120)는 카메라 모듈(175)의 촬영 모드가 시선 인식 모드로 식별됨에 따라, 사용자의 응시 지점에 기초하여 관심 영역을 결정할 수 있다. 프로세서(120)는, 시선 인식 모듈(138)의 실행에 의해 시선 추적 센서(160)를 통해 획득되는 시선 정보에 기초하여 응시 지점에 관한 정보를 획득할 수 있다. 또한, 프로세서(120)는 응시 지점에 기초하여 관심 영역을 결정할 수 있다. 예를 들어, 관심 영역은, 사용자가 응시하는 응시 지점을 중심으로 기 설정된 주변 영역일 수 있다. 또한, 프로세서(120)는 시선 인식 모드 실행 중 사용자의 응시 지점을 추적하면서, 변경되는 응시 지점에 따라 관심 영역을 변경하여 결정할 수 있다.
또한, 예를 들어, 프로세서(120)는 카메라 모듈(175)의 촬영 모드가 객체 인식 모드로 식별됨에 따라, 미리 정해진 타겟 객체에 기초하여 관심 영역을 결정할 수 있다. 프로세서(120)는 객체 인식 모듈(139)의 실행에 의해 소정 객체 추적 알고리즘을 이용하여, 카메라 모듈(175)에 의해 촬영된 이미지로부터 미리 정해진 타겟 객체를 인식할 수 있다. 예를 들어, 관심 영역은, 타겟 객체로 결정될 수 있다. 또한, 프로세서(120)는 객체 인식 모드 실행 중 소정 객체 추적 알고리즘을 이용하여 타겟 객체의 위치, 방향, 깊이 등을 검출함으로써 타겟 객체의 이동을 추적하면서, 이동하는 타겟 객체의 위치에 따라 관심 영역을 변경하여 결정할 수 있다.
또한, 예를 들어, 프로세서(120)는 카메라 모듈(175)의 촬영 모드가 제스처 인식 모드로 식별됨에 따라, 사용자 손을 인식하고 손의 위치에 기초하여 관심 영역을 결정할 수 있다. 예를 들어, 프로세서(120)는 제스처 인식 모듈(140)의 실행에 따라 카메라 모듈(175)에 의해 촬영된 이미지로부터 사용자의 손을 인식할 수 있다. 예를 들어, 관심 영역은, 사용자의 손의 위치로 결정될 수 있다. 또한, 프로세서(120)는 제스처 인식 모드 실행 중 사용자의 손의 위치가 변경됨에 따라, 변경되는 손의 위치에 따라 관심 영역을 변경하여 결정할 수 있다.
또한, 예를 들어, 프로세서(120)는 카메라 모듈(175)의 촬영 모드가 공간 인식 모드로 식별됨에 따라, 카메라 모듈(175)에 의해 촬영 가능한 각도에 포함되는 주변 공간을 관심 영역으로 결정할 수 있다.
프로세서(120)는 메모리(130)에 저장된 촬영 방향 결정 모듈(134)을 실행함으로써, 관심 영역의 깊이 측정을 위한 제1 카메라(171)와 제2 카메라(172)의 촬영 방향의 조합을 결정할 수 있다.
일 실시 예에 따라, 전자 장치(100)는, 미리 정해진 제1 카메라(171)와 제2 카메라(172)의 촬영 방향의 조합에 기초하여 제1 및 2 카메라(171, 172)가 변향되도록 제어할 수 있다. 예를 들어, 전자 장치(100)는 카메라 모듈(175)의 구동 시, 제1 카메라(171)와 제2 카메라(172)가 정면 방향을 향해 평행한 상태를 디폴트 촬영 방향으로 결정할 수 있다.
또한, 전자 장치(100)는 깊이 측정이 요구되는 소정 애플리케이션이 실행됨에 따라, 관심 영역(예컨대, 특정 타겟 객체, 사용자의 시선이 향하는 객체, 사용자의 손 등)을 향하도록 제1 카메라(171)와 제2 카메라(172)의 촬영 방향의 조합을 결정할 수 있다.
또한, 전자 장치(100)는 카메라 모듈(175)의 촬영 모드를 식별하고 촬영 모드에 따라 미리 설정된 제1 카메라(171)와 제2 카메라(172)의 촬영 방향의 조합에 기초하여 촬영 방향을 결정할 수 있다. 예를 들어, 전자 장치(100)는 식별된 촬영 모드에 따라, 예컨대, 시선 인식 모드에서는 사용자 시선이 향하는 응시 지점을 향해 제1 카메라(171)와 제2 카메라(172)가 평행한 상태를 촬영 방향으로 결정할 수 있다. 또한, 전자 장치는, 예컨대, 제스처 인식 모드에서는 제1 및 2 카메라(171, 172)가 사용자의 손이 위치할 수 있는 전자 장치(100)에 근접한 하향 방향으로 좁혀진 상태를 촬영 방향으로 결정할 수 있다.
또한, 프로세서(120)는 관심 영역의 적어도 일부가 제1 및 2 카메라(171, 172)의 촬영 방향의 조합에 대응하는 깊이 측정 영역의 외부임을 판단함에 따라, 변경할 촬영 방향의 조합을 결정할 수 있다. 프로세서(120)는 미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 관심 영역을 포함하는 적어도 하나의 깊이 측정 영역에 대응하는 촬영 방향의 조합을 결정할 수 있다.
일 실시 예에 따라, 깊이 측정 영역에 관한 정보는, 제1 및 제2 카메라(171, 172)에 의해 촬영 가능한 복수의 촬영 방향의 조합에 따라 깊이 측정이 가능한 영역을 나타내는 정보로서, 깊이 측정 영역 산출 모듈(131)에 의해 산출될 수 있다.
프로세서(120)는 메모리(130)에 저장된 촬영 모듈(135)을 실행함으로써, 카메라 모듈(175)을 통해 전자 장치(100)의 주변을 촬영함으로써 이미지를 획득할 수 있다.
프로세서(120)는 촬영 방향 결정 모듈(134)에 의해 결정된 촬영 방향의 조합에 기초하여 제1 카메라(171) 및 제2 카메라(172)가 변향(變向)되도록 제어함으로써 전자 장치(100)의 주변을 촬영할 수 있다. 또한, 프로세서(120)는, 촬영 방향 결정 모듈(134)에 의해 촬영 방향의 조합이 변경됨에 따라 제1 카메라(171) 및 제2 카메라(172) 각각의 촬영 방향이 변경되도록 제어함으로써, 전자 장치(100)의 주변을 촬영할 수 있다. 이에 따라, 프로세서(120)는 관심 영역을 각각 포함하는 복수 개의 이미지를 획득할 수 있다.
프로세서(120)는 메모리(130)에 저장된 이미지 처리 모듈(136)을 실행함으로써, 촬영 모듈(135)에 의해 획득된 이미지를 변환할 수 있다.
일 실시 예에 따라, 제1 카메라(171) 및 제2 카메라(172)는 안경 형상으로 구현된 전자 장치(100)의 프레임 영역 중 양 렌즈부의 외측 영역에 각각 내장된 형태로 장착될 수 있다. 이에 따라, 제1 카메라(171) 및 제2 카메라(172)에 의해 촬영된 복수의 이미지에 각각 포함된 관심 영역의 깊이를 측정하기 위해서는, 복수의 이미지가 제1 카메라(171)와 제2 카메라(172)가 서로 평행하게 배치된 상태에서 촬영되었을 때를 가정하여 획득 가능한 이미지로 변환 처리가 필요하다.
프로세서(120)는 제1 카메라(171)에 의해 획득된 제1 이미지 상의 제1 특징점과 제2 카메라(172)에 의해 획득된 제2 이미지 상의 제2 특징점의 매칭에 기초하여, 제1 이미지와 제2 이미지를 제1 카메라(171)와 제2 카메라(172)가 서로 평행하게 배치된 상태에서 촬영되었을 이미지로 변환할 수 있다. 프로세서(120)는 변환된 복수 개의 이미지를 이용하여, 복수 개의 이미지에 포함된 관심 영역의 깊이를 획득할 수 있다.
프로세서(120)는 메모리(130)에 저장된 깊이 산출 모듈(137)을 실행함으로써, 관심 영역의 깊이를 획득할 수 있다. 프로세서(120)는 이미지 처리 모듈(136)에 의해 변환된 제1 및 2 이미지를 이용하여 관심 영역의 깊이를 획득할 수 있다.
프로세서(120)는, 스테레오 비전 방식에 기초하여, 제1 및 제2 이미지로부터 대응되는 특징점을 추출하여 관심 영역의 깊이를 산출할 수 있다. 프로세서(120)는, 추출된 특징점에 대한 디스패리티(disparity) 값, 제1 카메라(171)와 제2 카메라(172) 사이의 거리를 나타내는 베이스라인(baseline) 값, 카메라 모듈(175)의 초점 거리를 이용하여, 제1 및 2 이미지에 포함된 관심 영역의 깊이를 산출할 수 있다.
또한, 프로세서(120)는 이미지 내의 관심 영역의 깊이를 산출함으로써, 깊이 맵(depth map)을 생성할 수 있다. 깊이 맵(depth map)은 이미지 내에 존재하는 공간 또는 객체들의 3차원 거리 정보를 나타내는 이미지로서, 이미지 내의 각 화소값은 해당 화소의 깊이에 관한 정보를 나타낼 수 있다. 깊이에 관한 정보는, 시점(view point)로부터 특정 화소에 대응되는 공간까지의 거리를 나타내는 값일 수 있다. 깊이 맵은 시점(view point)으로부터 먼 부분과 가까운 부분을 구별되게 나타낼 수 있다. 예를 들어, 깊이 맵에서, 사용자의 시점에서 먼 부분으로부터 가까운 부분까지가 흰색에서 검정색으로 점점 어두워지도록 그라데이션 방식으로 표시될 수 있다. 이에 따라, 전자 장치(100)의 주변 공간 내의 객체들의 형상 및 깊이가 깊이 맵에서 구별되게 표현될 수 있다.
또한, 프로세서(120)는 인공지능 모델을 이용하여, 관심 영역의 깊이를 획득할 수 있다. 프로세서(120)는 복수의 이미지들로부터 관심 영역의 깊이를 산출하도록 학습된 인공지능 모델에 카메라 모듈(175)에 의해 획득된 복수의 이미지들을 입력함으로써, 관심 영역의 깊이에 관한 정보를 획득할 수 있다.
또한, 인공지능 모델로부터 획득되는 관심 영역의 깊이 정보는 깊이 산출 모듈(137)에 의해 산출된 깊이를 검증하는데 이용될 수 있으나, 이에 제한되지 않는다. 또한, 카메라 모듈(137)을 통해 촬영된 이미지들 및 깊이 산출 모듈(137)에 의해 산출된 깊이 정보는, 깊이 산출을 위해 학습된 인공지능 모델을 업데이트하는데 이용될 수 있다.
프로세서(120)는 메모리(130)에 저장된 시선 인식 모듈(138)을 실행함으로써, 카메라 모듈(175)의 촬영 모드를 시선 인식 모드로 동작시킬 수 있다.
프로세서(120)는 시선 인식 모듈(138)을 실행함으로써, 시선 추적 센서(160)를 통해 사용자의 시선 정보를 획득할 수 있다. 프로세서(120)는 시선 정보에 기초하여, 응시 지점에 관한 정보를 획득할 수 있다. 프로세서(120)는 응시 지점에 기초하여 관심 영역을 결정함으로써, 사용자의 시선이 향하는 관심 영역의 깊이를 측정할 수 있다.
또한, 프로세서(120)는 사용자의 시선 이동에 따라 응시 지점이 변경되면, 변경된 응시 지점을 포함하는 관심 영역의 깊이 측정이 가능하도록, 제1 카메라(171) 및 제2 카메라(172)의 촬영 방향을 변경하도록 제어할 수 있다. 이에 따라, 프로세서(120)는 사용자의 시선이 향하는 응시 지점을 추적하면서 관심 영역의 깊이를 측정할 수 있다.
프로세서(120)는 메모리(130)에 저장된 객체 인식 모듈(139)을 실행함으로써, 카메라 모듈(175)의 촬영 모드를 객체 인식 모드로 동작시킬 수 있다.
프로세서(120)는 객체 인식 모듈(139)을 실행함으로써, 소정 객체 추적 알고리즘을 이용하여, 카메라 모듈(175)의 구동에 의해 획득되는 이미지로부터 미리 정해진 타겟 객체를 인식할 수 있다. 프로세서(120)는 타겟 객체를 관심 영역으로 결정함으로써 타겟 객체의 깊이를 측정할 수 있다.
또한, 프로세서(120)는 사용자의 타겟 객체가 이동함에 따라, 변경된 타겟 객체의 위치에 기초하여 타겟 객체의 깊이 측정이 가능하도록, 제1 카메라(171) 및 제2 카메라(172)의 촬영 방향을 변경하도록 제어할 수 있다. 이에 따라, 프로세서(120)는 타겟 객체의 이동을 추적하면서, 타겟 객체를 포함하는 관심 영역의 깊이를 측정할 수 있다.
프로세서(120)는 메모리(130)에 저장된 제스처 인식 모듈(140)을 실행함으로써, 카메라 모듈(175)의 촬영 모드를 제스처 인식 모드로 동작시킬 수 있다.
프로세서(120)는 제스처 인식 모듈(140)을 실행함으로써, 사용자 손의 위치를 인식할 수 있다. 프로세서(120)는 손의 위치한 영역을 관심 영역으로 결정함으로써 손이 위치한 영역의 깊이를 측정할 수 있다.
또한, 프로세서(120)는 사용자의 손의 위치가 이동함에 따라, 변경된 손의 위치에 기초하여 손이 위치한 영역의 깊이 측정이 가능하도록, 제1 카메라(171) 및 제2 카메라(172)의 촬영 방향을 변경하도록 제어할 수 있다. 이에 따라, 프로세서(120)는 손의 위치 이동을 추적하면서, 손이 위치한 영역의 깊이를 측정할 수 있다.
프로세서(120)는 메모리(130)에 저장된 공간 인식 모듈(141)을 실행함으로써, 카메라 모듈(175)의 촬영 모드를 공간 인식 모드로 동작시킬 수 있다.
프로세서(120)는 공간 인식 모듈(141)을 실행함으로써, 전자 장치(100) 주변의 공간을 인식할 수 있다. 프로세서(120)는 카메라 모듈(175)에 의해 촬영 가능한 각도에 포함되는 주변 공간을 관심 영역으로 결정함으로써 전자 장치(100) 주변 공간의 깊이를 측정할 수 있다.
프로세서(120)는 미리 설정된 시간 간격, 미리 설정된 방향 및 각도에 따라 제1 카메라(171) 및 제2 카메라(172)를 회전하도록 제어하면서 주변 공간을 촬영함으로써 복수의 이미지들을 획득할 수 있다. 이에 따라, 프로세서(120)는 주변 공간을 포함하는 복수의 이미지들을 이용하여 주변 공간에 대한 깊이 맵(depth map)을 생성할 수 있다.
도 3은 일 실시 예에 따른 전자 장치 내의 카메라 모듈이 회전하는 예를 설명하기 위한 도면이다.
일 실시 예에 따라 카메라 모듈(175, 도1)은 안경 형상으로 구현된 전자 장치(100)의 프레임 영역 중 좌안 렌즈부의 외측 영역에 내장된 제1 카메라(171)와 전자 장치(100)의 프레임 영역 중 우안 렌즈부의 외측 영역에 내장된 제2 카메라(172)를 포함할 수 있다. 제1 카메라(171) 및 제2 카메라(172)는 동일한 구조를 가지며, 동일한 방식으로 동작하므로, 도 3에서는, 제1 카메라(171)를 기준으로 설명하기로 한다.
도 3은 전자 장치(100)에 내장된 제1 카메라(171)의 상단부(175a)와 측면부(175b)의 구조를 개략적으로 나타내기 위한 도면으로, 이에 제한되지 않는다.
도 3을 참조하면, 제1 카메라(171)는 회전 중심(31)을 중심으로 소정 방향으로 소정 각도 패닝(panning) 또는 틸팅(tilting)될 수 있는 구조로 전자 장치(100)에 장착될 수 있다. 예를 들어, 제1 카메라(171)는 회전 가능한 구조로 장착된 렌즈부와 회전하는 렌즈부의 균형을 잡아주는 중심축 역할을 하는 피벗(pivot)을 포함할 수 있다. 이에 따라, 제1 카메라(171)는 회전 중심(31)을 중심으로 소정 방향으로 소정 각도 기울거나, 시계 또는 반시계 방향으로 회전할 수 있다.
도 3의 카메라 모듈(175)은 일 예를 도시한 것으로 이에 한정되지 않으며, 제1 카메라(171)는 촬영 방향의 변경을 위해 회전 가능한 구조로 전자 장치(100)에 장착될 수 있다.
도 4는 일 실시 예에 따른 전자 장치가 회전 가능한 제1 및 2 카메라를 이용하여 관심 영역의 깊이를 획득하는 동작을 설명하기 위한 흐름도이다.
도 4의 S401에서, 전자 장치(100)는 실행 중인 기능에 따라 관심 영역을 결정할 수 있다.
일 실시 예에 따라 관심 영역은, 이미지 내에서 깊이 측정이 요구되는 영역을 의미할 수 있다. 전자 장치(100)는 소정 애플리케이션 실행에 따라, 관심 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 깊이 측정이 요구되는 애플리케이션이 실행됨에 따라, 특정 객체, 사용자의 시선이 향하는 객체, 사용자의 손, 또는 주변 공간 등을 관심 영역으로 결정할 수 있다.
또한, 전자 장치(100)는 카메라 모듈(175)의 촬영 모드를 식별하고 촬영 모드에 따라 관심 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 객체 인식 모드 실행 시, 타겟 객체가 위치한 영역을 관심 영역으로 결정할 수 있다.
도 4의 S402에서, 전자 장치(100)는 미리 정해진 제1 카메라 및 제2 카메라의 촬영 방향의 조합에 기초하여 제1 및 2 카메라가 변향되도록 제어함으로써, 관심 영역을 각각 포함하는 두 개 이상의 이미지를 획득할 수 있다.
일 실시 예에 따라, 전자 장치(100)는 미리 설정된 디폴트 촬영 방향에 기초하여 촬영되도록 제1 및 2 카메라(171, 172)를 제어할 수 있다. 또한, 전자 장치(100)는 소정 애플리케이션이 실행됨에 따라 요구되는 촬영 방향에 기초하여 제1 및 2 카메라(171, 172)를 제어할 수 있다. 또한, 전자 장치(100)는 촬영 모드를 식별하고 촬영 모드에 대응하여 미리 설정된 촬영 방향에 기초하여 제1 및 2 카메라(171, 172)를 제어할 수 있다.
또한, 일 실시 예에 따라, 전자 장치(100)는 관심 영역의 적어도 일부가 제1 및 2 카메라의 촬영 방향의 조합에 대응하는 깊이 측정 영역의 외부로 판단됨에 따라, 변경할 촬영 방향의 조합을 결정할 수 있다. 전자 장치(100)는 미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 관심 영역을 포함할 수 있는 적어도 하나의 깊이 측정 영역에 대응하는 촬영 방향의 조합을 결정할 수 있다. 전자 장치(100)는 결정된 촬영 방향의 조합에 기초하여 제1 및 2 카메라(171, 172)가 변향되도록 제어할 수 있다.
이에 따라, 전자 장치(100)는 제1 카메라(171) 및 제2 카메라(172)에 의해 촬영된 적어도 두 개 이상의 이미지를 획득할 수 있다.
도 4의 S403에서, 전자 장치(100)는 획득된 두 개 이상의 이미지를 이용하여 관심 영역의 깊이를 획득할 수 있다.
일 실시 예에 따라, 전자 장치(100)는 획득된 이미지를 제1 카메라와 제2 카메라가 서로 평행하게 배치된 상태에서 촬영되었을 때를 가정하여 획득 가능한 이미지로 변환할 수 있다. 전자 장치(100)는 변환된 이미지를 이용하여 관심 영역의 깊이를 획득할 수 있다.
일 실시 예에 따라, 전자 장치(100)는, 두 개 이상의 이미지를 이용하여, 스테레오 비전 방식에 기초하여 관심 영역의 깊이를 산출할 수 있다. 또한, 전자 장치(100)는 복수의 이미지들로부터 관심 영역의 깊이를 산출하도록 학습된 인공지능 모델을 이용하여, 관심 영역의 깊이를 획득할 수 있다.
도 5는 촬영 모드에 따라 관심 영역을 결정하는 방법을 설명하기 위한 흐름도이다.
도 5의 S501에서, 전자 장치(100)는 카메라 모듈의 촬영 모드를 식별할 수 있다. 일 실시 예에 따라, 전자 장치(100)는 전자 장치(100)에서 실행 중인 촬영 모드를 식별할 수 있다. 예를 들어, 촬영 모드는, 시선 인식 모드, 객체 인식 모드, 제스처 인식 모드, 또는 공간 인식 모드 중 적어도 하나를 포함할 수 있다.
S502에서, 전자 장치(100)는 식별된 촬영 모드에 따라 관심 영역을 결정할 수 있다.
일 실시 예에 따라 전자 장치(100)는 복수의 촬영 모드 중 실행 중인 촬영 모드에 따라 깊이 측정이 요구되는 영역을 관심 영역으로 결정하고, 결정된 관심 영역의 깊이를 측정할 수 있다.
도 6은 시선 인식 모드에서 관심 영역을 결정하는 예를 설명하기 위한 도면이다.
도 6을 참조하면, 일 실시 예에 따라 전자 장치(100)는 한쪽 눈의 시선을 추적하기 위한 제1 시선 추적 센서(161)와 다른 한쪽 눈의 시선을 추적하기 위한 제2 시선 추적 센서(162)를 포함할 수 있다.
일 실시 예에 따라, 전자 장치(100)는 시선 인식 모드 실행 시, 사용자 양안의 시선을 추적하기 위한 시선 추적 센서(160, 도2)를 이용하여 시선 정보를 획득할 수 있다. 일 실시 예에 따라, 시선 정보는, 사용자의 눈의 시선 방향, 사용자 눈의 동공 위치 또는 동공의 중심점 좌표 중 적어도 하나를 포함할 수 있다.
전자 장치(100)는 시선 정보에 기초하여 응시 지점에 관한 정보를 획득할 수 있다. 일 실시 예에 따라, 응시 지점에 관한 정보는, 응시 지점에 관한 2차원 위치 정보를 포함할 수 있다. 일 실시 예에 따라, 2차원 위치 정보는, 사용자가 응시하고 있는 응시 지점의 2차원 좌표 정보(예를 들어, x 좌표 값, y 좌표 값)를 의미할 수 있다.
전자 장치(100)는 응시 지점에 기초하여 관심 영역을 결정할 수 있다. 예를 들어, 관심 영역은, 사용자가 응시하는 응시 지점 및 응시 지점을 중심으로 기 설정된 주변 영역을 의미할 수 있다. 도 6을 참조하면, 전자 장치(100)는 사용자의 양안이 응시하고 있는 응시 지점(601)과 응시 지점(601) 중심으로 기 설정된 주변 영역(602)을 관심 영역으로 결정할 수 있다.
도 7은 객체 인식 모드에서 관심 영역을 결정하는 예를 설명하기 위한 도면이다.
일 실시 예에 따라, 전자 장치(100)는 객체 인식 모드 실행에 따라, 미리 정해진 타겟 객체를 관심 영역으로 결정할 수 있다. 전자 장치(100)는 객체 인식 모드에 대응하여 미리 설정된 촬영 방향에 따라 제1 및 2 카메라(171, 172)를 제어함으로써 이미지를 획득할 수 있다. 예를 들어, 전자 장치(100)는 제1 및 2 카메라(171, 172)가 평행한 상태로 정면을 향하도록 제1 및 2 카메라(171, 172)를 제어할 수 있다.
전자 장치(100)는 소정 객체 추적 알고리즘을 이용하여, 제1 및 2 카메라 (171, 172)에 의해 획득되는 이미지로부터 미리 정해진 타겟 객체를 인식할 수 있다. 도 7을 참조하면, 전자 장치(100)는 미리 정해진 타겟 객체 예컨대, 화분을 인식하고, 화분(701)를 관심 영역으로 결정할 수 있다.
도 8은 제스처 인식 모드에서 관심 영역을 결정하는 예를 설명하기 위한 도면이다.
일 실시 예에 따라, 전자 장치(100)는 제스처 인식 모드 실행 시, 사용자의 손이 위치한 영역을 관심 영역으로 결정할 수 있다.
일 실시 예에 따라, 전자 장치(100)는 제스처 인식 모드에 대응하여 미리 설정된 촬영 방향의 조합에 기초하여 제1 및 2 카메라(171, 172)를 제어할 수 있다. 예를 들어, 전자 장치(100)는 전자 장치(100)의 중심부를 향하면서 근거리 촬영이 가능한 촬영 방향에 기초하여 제1 및 2 카메라(171, 172)가 변향되도록 제어할 수 있다. 전자 장치(100)는 사용자의 손이 위치한 영역을 인식하고 손이 위치한 영역(801)을 관심 영역으로 결정할 수 있다.
도 9는 공간 인식 모드에서 관심 영역을 결정하는 예를 설명하기 위한 도면이다.
일 실시 예에 따라, 전자 장치(100)는 공간 인식 모드 실행 시, 카메라 모듈(175)에 의해 촬영 가능한 각도에 포함되는 주변의 공간을 관심 영역으로 결정할 수 있다.
전자 장치(100)는 미리 설정된 시간 간격, 미리 설정된 방향 및 각도에 따라 제1 카메라(171) 및 제2 카메라(172)를 회전하도록 제어하면서 주변 공간을 촬영하고 주변 공간(901, 902, 903, 904)을 관심 영역으로 결정할 수 있다.
도 10은 획득된 이미지들의 변환 방법을 설명하기 위한 도면이다.
일 실시 예에 따라, 전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)에 의해 촬영된 복수의 이미지를 이용하여 관심 영역의 깊이를 측정하기 위해, 복수의 이미지를 제1 카메라(171)와 제2 카메라(172)가 서로 평행하게 배치된 상태에서 촬영되었을 때를 가정하여 획득 가능한 이미지로 변환 처리할 수 있다.
도 10을 참조하면, 전자 장치(100)는 제1 카메라(171)에 의해 촬영된 제1 이미지(1001) 상의 제1 특징점들(1003, 1005, 1007)을 추출할 수 있다. 또한, 전자 장치(100)는 제2 카메라(172)에 의해 촬영된 제2 이미지(1002) 상에서 제1 특징점들(1003, 1005, 1007)과 매칭되는 제2 특징점들(1004, 1006, 1008)을 식별할 수 있다. 전자 장치(100)는 제2 이미지(1002)에 포함된 공간 또는 객체 상에서 제1 이미지(1001)에 포함된 공간 또는 객체 상의 제1 특징점들(1003, 1005, 1007)과 동일한 지점을 나타내는 제2 특징점들(1004, 1006, 1008)들을 식별할 수 있다.
전자 장치(100)는 제1 특징점들(1003, 1005, 1007)과 제2 특징점들(1004, 1006, 1008)의 매칭에 기초하여, 제1 카메라(171) 및 제2 카메라(172) 사이의 간격을 나타내는 베이스라인(baseline) 값(b)을 유지하면서, 제1 이미지(1001)와 제2 이미지(1002)를 제1 카메라(171)와 제2 카메라(172)가 서로 평행하게 배치된 상태를 가정하여 획득 가능한 이미지로 변환할 수 있다.
도 10에서 도시한 제1 특징점들(1003, 1005, 1007)과 제2 특징점들(1004, 1006, 1008)은 일 예시를 도시한 것으로 이에 한정되지 않는다. 전자 장치(100)는 소정 이미지 처리 알고리즘을 이용하여 제1 이미지(1001) 및 제2 이미지(1002)에 포함된 공간 또는 객체 상에서 소정 개수의 특징점들을 매칭시킬 수 있다.
도 11은 관심 영역 내의 특징점을 매칭하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따라, 전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)가 서로 평행하게 배치된 상태에서 획득 가능한 이미지로 변환된 제1 이미지(1101)와 제2 이미지(1102)를 이용해서, 제1 이미지(1101)와 제2 이미지(1102)에 포함된 관심 영역의 깊이를 획득할 수 있다.
도 11을 참조하면, 전자 장치(100)는 제1 이미지(1101) 상의 관심 영역(1103) 중에서 제1 특징점(1105)을 추출하고, 제2 이미지(1102) 상의 관심 영역(1104) 중에서, 제1 특징점(1105)과 매칭되는 제2 특징점(1106)을 추출할 수 있다. 전자 장치(100)는 제2 이미지(1102)상에서 제1 특징점(1105)과 실제 공간 상의 동일한 지점을 나타내는 제2 특징점(1106)을 추출할 수 있다.
도 12는 특징점에 대한 디스패리티(disparity) 값(d)을 산출하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따라, 전자 장치(100)는 제1 이미지(1101) 상의 제1 특징점(1105)과 제2 이미지(1102) 상의 제2 특징점(1106) 간의 디스패리티(disparity) 값(d)을 산출할 수 있다. 디스패리티 값(d)은 두 개의 이미지 중에서 한 이미지 내의 어떤 특징점이 다른 이미지 상에서 얼마나 쉬프트되었는지를 나타내는 값일 수 있다.
전자 장치(100)는 두 개의 이미지로부터 디스패리티 값(d)을 산출하기 위해, 두 개의 이미지를 가상으로 배열할 수 있다. 도 12에 도시한 바와 같이, 제1 특징점(1105)과 제2 특징점(1106) 간의 디스패리티 값(d)은, 제1 이미지(1101)와 제2 이미지(1102)를 제1 세로축(1201)과 제2 세로축(1202)을 기준으로 정렬시켰을 때의 제1 특징점(1105)과 제2 특징점(1106) 간의 거리를 산출함으로써 결정될 수 있다. 제1 특징점(1105)과 제2 특징점(1106) 간의 거리는 제1 특징점(1105)을 지나는 제1 세로선(1203)과 제2 특징점(1106)을 지나는 제2 세로선(1204) 사이의 거리에 의해 산출될 수 있다.
도 13은 관심 영역의 깊이(z)를 산출하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따라, 전자 장치(100)는 특징점에 대한 디스패리티(disparity) 값(d)(도 12 참조), 제1 카메라(171)와 제2 카메라(172) 사이의 거리를 나타내는 베이스라인(baseline) 값(b), 카메라 모듈(175)의 초점 거리(f)를 이용하여, 관심 영역의 깊이(z)를 산출할 수 있다.
도 13을 참조하면, 베이스라인(baseline) 값(b)은 제1 카메라(171)의 렌즈 중심(O)과 제2 카메라(172)의 렌즈 중심(O’) 간의 거리로 산출될 수 있다.
3차원 공간 상의 P 점은, 제1 이미지 평면 상에서 x 지점, 제2 이미지 평면상에서 x’ 지점으로 나타날 수 있다. 이 때, 디스패리티 값(d)은 x 지점과 x’ 지점의 차이로 산출될 수 있다. 또한, 제1 카메라(171)와 제2 카메라(172)의 초점 거리가 f 일 때, 아래의 수학식 1과 같이, P 점의 깊이(z)가 산출될 수 있다.
[수학식 1]
깊이(z) = (베이스라인 값(b) x 초점거리(f)) / 디스패리티 값(d)
도 12에서, 제1 이미지(1101) 상의 제1 특징점(1105) 및 제2 이미지(1102) 상의 제2 특징점(1106)의 실제 공간 상의 위치를 P 점이라고 할 때, P 점의 깊이(z)는, 수학식 1에 기초하여, 제1 특징점(1105)과 제2 특징점(1106) 간의 디스패리티 값(d)을 이용해서 산출될 수 있다.
도 14는 깊이 산출에 기초하여 깊이 맵을 생성하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따라, 전자 장치(100)는 이미지 내의 관심 영역의 깊이를 산출함으로써, 이미지 내에 존재하는 공간 또는 객체들의 깊이를 나타내는 깊이 맵(depth map)을 생성할 수 있다. 전자 장치(100)는 공간 인식 모드 실행 시, 미리 설정된 촬영 시간 간격에 기초하여 소정 방향 및 소정 각도로 촬영 방향이 변경되도록 제1 및 2 카메라(171, 172)를 제어함으로써, 전자 장치(100)의 주변을 순차적으로 복수 회 촬영할 수 있다. 이에 따라, 전자 장치(100)가 제1 및 2 카메라(171, 172)에 의해 순차적으로 촬영한 복수의 이미지들은, 인접하게 촬영된 이미지들 간에 동일한 객체 또는 공간을 포함할 수 있다.
도 14에 도시한 제1 이미지(1401), 제2 이미지(1402), 제3 이미지(1403), 제4 이미지(1404)는, 제1 및 2 카메라(171, 172)의 촬영 방향을 소정 각도로 순차적으로 변경하면서 촬영한 복수의 이미지들의 일 예시이다. 전자 장치(100)는 인접한 주변 공간을 포함하는 복수의 이미지들(1401, 1402, 1403, 1404)을 이용해서 주변 공간의 깊이를 획득할 수 있다.
전자 장치(100)는 적어도 두 개 이상의 이미지들에 포함된 동일한 객체 또는 공간으로부터 특징점을 추출하고 특징점들의 매칭에 기초하여 특징점의 깊이를 획득할 수 있다. 예를 들어, 제1 이미지(1401) 내의 제1 특징점(1405)은, 제2 이미지(1402)내에서 제1 특징점(1405)과 실제 공간 상의 동일한 지점을 나타내는 제2 특징점(1406)과 매칭될 수 있다. 또한, 제2 이미지(1402) 내의 제3 특징점(1407)은, 제3 이미지(1403)내에서 제3 특징점(1407)과 실제 공간 상의 동일한 지점을 나타내는 제4 특징점(1408)과 매칭될 수 있다. 또한, 제3 이미지(1403) 내의 제4 특징점(1408)은, 제4 이미지(1404)내에서 제4 특징점(1408)과 실제 공간 상의 동일한 지점을 나타내는 제5 특징점(1409)과 매칭될 수 있다. 전자 장치(100)는 매칭되는 특징점들 간의 디스패리티 값(d)을 이용해서, 특징점의 깊이를 획득할 수 있다.
전자 장치(100)는 복수의 이미지들(1401, 1402, 1403, 1404)에 포함된 공간 또는 객체들의 깊이를 획득하고, 획득된 깊이 정보를 이용해서 시점(view point)로부터 먼 부분과 가까운 부분을 구별되게 나타내는 깊이 맵(1410)을 생성할 수 있다.
도 14에서 도시한 특징점들의 매칭은 매칭 방법을 설명하기 위한 것으로 이에 한정되지 않는다. 전자 장치(100)는 두 개 이상의 이미지들 간의 복수 개의 특징점 매칭에 기초하여 이미지들 간에 중첩되는 영역의 깊이를 획득하고 깊이 맵을 생성할 수 있다.
도 15는 일 실시 예에 따른 카메라 모듈의 촬영 방향을 변경하는 동작을 설명하기 위한 흐름도이다.
도 15의 S1501에서, 전자 장치(100)는 관심 영역의 적어도 일부가 제1 및 2 카메라의 촬영 방향의 조합에 대응하는 깊이 측정 영역의 외부임을 판단할 수 있다.
일 실시 예에 따라, 깊이 측정 영역은, 제1 카메라(171)와 제2 카메라(172)를 이용하여 깊이를 측정할 수 있는 3차원 영역을 의미할 수 있다. 전자 장치(100)는 관심 영역의 적어도 일부가 제1 및 2 카메라의 촬영 방향의 조합에 대응하는 깊이 측정 영역의 외부임을 판단함에 따라, 변경할 촬영 방향의 조합을 결정할 수 있다.
관심 영역의 적어도 일부가 깊이 측정 영역의 외부에 존재하면, 제1 카메라(171)와 제2 카메라(172)의 현재 촬영 방향의 조합에 따라 촬영된 이미지를 이용해서 관심 영역의 깊이를 측정할 수 없다. 따라서, 관심 영역이 제1 카메라(171)와 제2 카메라(172)의 깊이 측정 영역의 내부로 들어오도록, 제1 카메라(171)와 제2 카메라(172)의 촬영 방향의 조합을 변경할 필요가 있다.
도 15의 S1502에서, 전자 장치(100)는 미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 관심 영역을 포함하는 적어도 하나의 깊이 측정 영역에 대응하는 촬영 방향의 조합을 결정할 수 있다.
전자 장치(100)는 깊이를 측정하고자 하는 관심 영역이 깊이 측정 영역의 내부에 포함될 수 있도록 제1 카메라(171)와 제2 카메라(172)의 변경할 촬영 방향의 조합을 결정할 수 있다.
도 15의 S1503에서, 전자 장치(100)는 결정된 촬영 방향의 조합에 기초하여 제1 및 2 카메라가 변향되도록 제어함으로써, 관심 영역을 각각 포함하는 두 개 이상의 이미지를 획득할 수 있다. 전자 장치(100)는 두 개 이상의 이미지를 이용해서 관심 영역의 깊이를 획득할 수 있다.
도 16은 관심 영역의 위치가 변경됨에 따라 촬영 방향을 변경하는 일 예를 설명하기 위한 도면이다. 도 16은 제1 관심 영역(1602)으로부터 제2 관심 영역(1604)으로 관심 영역의 위치가 변경될 때 촬영 방향을 변경하는 예를 도시한다.
전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)가 서로 평행하게 정면을 향하는 촬영 방향의 조합일 때, 제1 관심 영역(1602)이 제1 깊이 측정 영역(1601) 내에 포함되므로, 제1 관심 영역(1602)의 깊이를 획득 할 수 있다.
일 실시 예에 따라, 깊이를 측정하고자 하는 관심 영역의 위치가 제1 관심 영역(1602)으로부터 제2 관심 영역(1604)으로 가까워짐에 따라, 제2 관심 영역(1604)의 일부 영역이 제1 깊이 측정 영역(1601)의 외부로 벗어날 수 있다. 예를 들어, 전자 장치(100)가 타겟 객체를 추적하면서 영상을 촬영할 때, 움직이는 타겟 객체가 전자 장치(100)와 가까워질 수 있다.
이에 따라, 전자 장치(100)는 제2 관심 영역(1604)의 깊이 측정을 위해서는 제2 관심 영역(1604)이 제1 카메라(171)와 제2 카메라(172)의 깊이 측정 영역 내에 들어 올 수 있도록, 제1 카메라(171)와 제2 카메라(172)의 촬영 방향의 조합을 변경할 필요가 있다.
전자 장치(100)는 미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 제2 관심 영역(1604)을 포함할 수 있는 깊이 측정 영역에 대응하는 촬영 방향의 조합을 검출할 수 있다. 도 16을 참조하면, 전자 장치(100)는 검출된 촬영 방향의 조합에 기초하여, 제1 카메라(171)와 제2 카메라(172)의 촬영 방향이 전자 장치(100)의 중심부를 향하도록 제어함으로써, 제2 깊이 측정 영역(1603) 내에 포함되는 제2 관심 영역(1604)의 깊이를 획득할 수 있다.
도 17은 관심 영역의 위치가 변경됨에 따라 촬영 방향을 변경하는 다른 일 예를 설명하기 위한 도면이다. 도 17은 제1 관심 영역(1702)으로부터 제2 관심 영역(1704)으로 관심 영역의 위치가 변경될 때 촬영 방향을 변경하는 예를 도시한다.
전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)가 전자 장치(100)의 중심부를 향하는 촬영 방향의 조합일 때, 제1 관심 영역(1702)은 제1 깊이 측정 영역(1701) 내에 포함되므로, 제1 관심 영역(1702)의 깊이를 획득 할 수 있다.
일 실시 예에 따라, 전자 장치(100)가 깊이를 측정하고자 하는 관심 영역의 위치가 제1 관심 영역(1702)으로부터 제2 관심 영역(1704)으로 멀어질 수 있다. 예를 들어, 전자 장치(100)가 타겟 객체를 추적하면서 영상을 촬영할 때, 움직이는 타겟 객체가 전자 장치(100)로부터 멀어질 수 있다.
전자 장치(100)는 미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 제2 관심 영역(1704)의 깊이를 측정하기 위해 보다 적합한 촬영 방향의 조합을 검출할 수 있다. 전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)가 평행하게 정면을 향하도록 제어함으로써, 제2 깊이 측정 영역(1703) 내에 제2 관심 영역(1704)이 포함되면서, 보다 장거리의 공간 또는 객체의 촬영이 가능하도록 제1 카메라(171)와 제2 카메라(172)를 변향할 수 있다.
도 18은 관심 영역의 위치가 변경됨에 따라 촬영 방향을 변경하는 또 다른 일 예를 설명하기 위한 도면이다. 도 18은 제1 관심 영역(1802)으로부터 제2 관심 영역(1804)으로 관심 영역의 위치가 변경될 때 촬영 방향을 변경하는 예를 도시한다.
전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)가 전자 장치(100)의 중심부를 향하는 촬영 방향의 조합일 때, 제1 관심 영역(1802)는 제1 깊이 측정 영역(1801) 내에 포함되므로, 제1 관심 영역(1802)의 깊이를 획득 할 수 있다.
일 실시 예에 따라, 전자 장치(100)가 깊이를 측정하고자 하는 관심 영역의 위치가 제1 관심 영역(1802)으로부터 전자 장치(100)를 기준으로 우측 방향의 제2 관심 영역(1804)으로 변경될 수 있다. 예를 들어, 전자 장치(100)가 타겟 객체를 추적하면서 영상을 촬영할 때, 움직이는 타겟 객체가 전자 장치(100)를 기준으로 우측 방향으로 이동할 수 있다.
전자 장치(100)는 미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 제2 관심 영역(1804)의 깊이를 측정할 수 있는 촬영 방향의 조합을 검출할 수 있다. 도 18을 참조하면, 전자 장치(100)는 제2 관심 영역(1804)이 제1 카메라(171)와 제2 카메라(172)의 깊이 측정 영역 내에 들어 올 수 있도록, 제1 카메라(171)와 제2 카메라(172)의 촬영 방향이 전자 장치(100)의 우측 방향을 향하도록 제어할 수 있다. 이에 따라, 전자 장치(100)는 변향된 촬영 방향의 조합에 대응하는 제2 깊이 측정 영역(1803) 내에 포함되는 제2 관심 영역(1804)의 깊이를 획득할 수 있다.
또 다른 예로, 전자 장치(100)가 타겟 객체를 추적하면서 영상을 촬영할 때, 움직이는 타겟 객체가 전자 장치(100)를 기준으로 좌측 방향으로 이동할 수 있다. 전자 장치(100)는 미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 변경된 타겟 객체의 위치에 대응하는 관심 영역이 제1 카메라(171)와 제2 카메라(172)의 촬영 방향의 조합에 대응하는 깊이 측정 영역 내에 들어 올 수 있도록, 제1 카메라(171)와 제2 카메라(172)의 촬영 방향이 전자 장치(100)의 좌측 방향을 향하도록 제어할 수 있다. 이에 따라, 전자 장치(100)는 변경된 관심 영역의 깊이를 획득할 수 있다.
도 19는 관심 영역의 크기가 변경됨에 따라 촬영 방향을 변경하는 일 예를 설명하기 위한 도면이다. 도 19는 제1 관심 영역(1902)으로부터 제2 관심 영역(1904)으로 관심 영역의 크기가 확장될 때 촬영 방향을 변경하는 예를 도시한다.
도 19를 참조하면, 전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)가 서로 평행하게 정면을 향하는 촬영 방향의 조합일 때, 제1 관심 영역(1902)은 제1 깊이 측정 영역(1901) 내에 포함되므로, 제1 관심 영역(1902)의 깊이를 획득 할 수 있다.
일 실시 예에 따라, 전자 장치(100)가 깊이를 측정하고자 하는 관심 영역의 크기가 제2 관심 영역(1904)으로 확장됨에 따라, 제2 관심 영역(1904)의 일부 영역이 제1 깊이 측정 영역(1901)의 외부로 벗어날 수 있다. 예를 들어, 전자 장치(100)가 사용자 시선을 추적하면서 영상을 촬영할 때, 사용자가 응시하는 객체가 변경됨에 따라 관심 영역의 크기가 확대될 수 있다.
이에 따라, 전자 장치(100)는 제2 관심 영역(1904)의 깊이 측정을 위해서는 제2 관심 영역(1904)이 제1 카메라(171)와 제2 카메라(172)의 깊이 측정 영역 내에 들어 올 수 있도록, 제1 카메라(171)와 제2 카메라(172)의 촬영 방향의 조합을 변경할 필요가 있다. 도 19를 참조하면, 전자 장치(100)는 미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 제1 카메라(171)와 제2 카메라(172)의 촬영 방향이 전자 장치(100)의 중심부를 향하도록 제어함으로써, 제2 깊이 측정 영역(1903) 내에 포함되는 제2 관심 영역(1904)의 깊이를 획득할 수 있다.
도 20은 관심 영역의 크기가 변경됨에 따라 촬영 방향을 변경하는 다른 일 예를 설명하기 위한 도면이다. 도 20은 제1 관심 영역(2002)으로부터 제2 관심 영역(2004)으로 관심 영역의 크기가 축소될 때 촬영 방향을 변경하는 예를 도시한다.
도 20을 참조하면, 전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)가 전자 장치(100)의 중심부를 향하는 촬영 방향의 조합일 때, 제1 관심 영역(2002)은 제1 깊이 측정 영역(2001) 내에 포함되므로, 제1 관심 영역(2002)의 깊이를 획득 할 수 있다.
일 실시 예에 따라, 전자 장치(100)가 깊이를 측정하고자 하는 관심 영역의 크기가 제2 관심 영역(2004)으로 축소될 수 있다. 예를 들어, 전자 장치(100)가 사용자 시선을 추적하면서 영상을 촬영할 때, 사용자가 응시하는 객체가 변경됨에 따라 관심 영역의 크기가 축소될 수 있다.
전자 장치(100)는 미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 제2 관심 영역(2004)의 깊이를 측정하기 위해 보다 적합한 촬영 방향의 조합을 검출할 수 있다. 전자 장치(100)는 제1 카메라(171)와 제2 카메라(172)가 평행하게 정면을 향하도록 제어함으로써, 제2 깊이 측정 영역(2003) 내에 제2 관심 영역(2004)이 포함되면서, 보다 장거리의 공간 또는 객체의 촬영이 가능하도록 제1 카메라(171)와 제2 카메라(172)를 변향할 수 있다.
도 21은 일 실시 예에 따른 전자 장치의 블록 구성도(block diagram)이다.
일 실시 예에 따라, 전자 장치(100)는, 통신 기능 및 데이터 프로세싱 기능을 구비한 증강 현실(Augmented Reality) 영상을 제공하는 증강 현실 장치일 수 있으며, 이에 제한되지 않는다.
도 21에 도시된 바와 같이, 일 실시 예에 따른 전자 장치(100)는 시선 추적 센서(160), 움직임 센서(150), 카메라(175), 메모리(130), 프로세서(120), 디스플레이(140), 통신부(180), 마이크(190) 및 사용자 입력부(195)를 포함할 수 있다.
그러나, 도 21에 도시된 구성 요소 모두가 전자 장치(100)의 필수 구성 요소인 것은 아니다. 도 21에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(100)가 구현될 수도 있고, 도 21에 도시된 구성 요소보다 적은 구성 요소에 의해 전자 장치(100)가 구현될 수도 있다.
시선 추적 센서(160), 카메라(175), 메모리(130) 및 프로세서(120)의 동작에 대해서는 도 2에서 설명하였으므로 생략하기로 한다.
일 실시 예에 의하면, 움직임 센서(150)는 IMU(Inertial Measurement Unit)일 수 있다. IMU는, 3차원 공간에서의 물체의 움직임 즉, 위치 및 배향 변화들을 감지하도록 구성되는 센서들의 조합일 수 있다. 예를 들어, 센서들의 조합은, 가속도계, 각속도계, 지자기계, 및 자이로스코프를 포함할 수 있다.
또한, 움직임 센서(150)는 가속도 센서(Acceleration sensor), 지자기 센서(Magnetic sensor), 또는 자이로스코프 센서 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른 디스플레이(140)는 프로세서(120)에서 처리되는 정보를 출력할 수 있다. 예를 들어, 디스플레이(140)는, 가상의 객체를 표시할 수 있다.
일 실시 예에 의하면, 디스플레이(140)는 AR(Augmented Reality) 영상을 제공할 수 있다. 일 실시 예에 따른 디스플레이(140)는 웨이브가이드와 디스플레이 모듈을 포함할 수 있다. 웨이브 가이드는 사용자가 전자 장치(100)를 착용할 때, 배면의 일부 영역이 보이는 투명한 소재로 구성될 수 있다. 웨이브 가이드는 광이 내부에서 반사되면서 전파될 수 있는 투명 재질의 단층 혹은 다층 구조의 평판으로 구성될 수 있다. 웨이브 가이드는 디스플레이 모듈의 출사면에 마주하여 투사된 가상 이미지의 광을 입력 받을 수 있다. 여기서, 투명 재질이라 함은, 광이 통과될 수 있는 재질이라는 의미이며, 투명도가 100%가 아닐 수 있으며, 소정의 색상을 지닐 수도 있다.
일 실시 예에서, 웨이브 가이드는 투명 재질로 형성됨에 따라, 사용자는 디스플레이(140)를 통해 가상 이미지의 가상 객체를 볼 수 있을 뿐만 아니라, 외부 실제 장면(scene)을 볼 수도 있으므로, 웨이브 가이드는 시스루 디스플레이(see through display)로 지칭될 수 있다. 디스플레이(140)는 웨이브 가이드를 통해 가상 이미지의 가상 객체를 출력함으로써, 증강 현실(augmented reality) 영상을 제공할 수 있다.
통신부(180)는, 전자 장치(100)와 외부 장치(200, 도 21) 또는 서버(미도시) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다.
예를 들어, 통신부(180)는, 근거리 통신부, 이동 통신부를 포함할 수 있다.
근거리 통신부는, 블루투스 통신부, 근거리 무선 통신부(NFC/RFID 부), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
일 실시 예에 따라 전자 장치(100)는, 통신부(180)를 통해, 카메라(175)를 이용해 획득된 복수 개의 이미지를 외부 장치(200, 도 21)로 전송할 수 있다. 이에 따라, 외부 장치(200)가 복수 개의 이미지에 대한 이미지 변환을 수행할 수 있다. 또한, 전자 장치(100)는, 통신부(180)를 통해, 외부 장치(200)에서 변환된 이미지를 수신하고, 수신한 이미지를 이용해서 관심 영역의 깊이를 산출할 수 있다.
또한, 일 실시 예에 따라 전자 장치(100)는, 통신부(180)를 통해, 카메라(175)를 이용해 획득된 복수 개의 이미지를 외부 장치(200, 도 21)로 전송하고, 외부 장치(200)가 복수 개의 이미지를 이용해서 관심 영역의 깊이를 산출할 수 있다. 또한, 전자 장치(100)는, 통신부(180)를 통해, 외부 장치(200)에서 산출된 깊이에 관한 정보를 수신하고, 수신한 관심 영역의 깊이에 관한 정보를 이용해서 디스플레이(140)를 통해 가상 객체를 표시하는 등 증강 현실 서비스를 제공할 수 있다.
마이크(190)는, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크(190)은 외부 디바이스 또는 화자로부터의 음향 신호를 수신할 수 있다. 마이크(190)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. 마이크(190)는 전자 장치(100)를 제어하기 위한 사용자의 음성 입력을 수신할 수 있다.
사용자 입력부(195)는, 사용자가 전자 장치(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(195)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠 또는 조그 스위치 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것은 아니다.
사용자 입력부(190)는, 카메라 모듈(175)을 이용하여 전자 장치(100)의 주변을 촬영하기 위한 사용자 입력을 수신할 수 있다. 또한, 사용자 입력부(190)는 촬영된 영상을 기반으로 전자 장치(100) 또는 서버(미도시)로부터의 서비스를 제공받기 위한 사용자 입력을 수신할 수 있다.
도 22는 일 실시 예에 따른 전자 장치와 외부 장치의 블록 구성도(block diagram)이다.
일 실시 예에 따라, 전자 장치(100)는 외부 장치(200)와 연동하여 동작할 수 있다. 전자 장치(100)는 카메라 모듈(175)에 의해 획득한 복수 개의 이미지를 외부 장치(200)로 전송하고, 외부 장치(200)가 복수 개의 이미지를 이용하여 깊이를 산출하고, 깊이에 관한 정보를 전자 장치(100)로 제공할 수 있다.
도 22에 도시된 전자 장치(100)의 구성 요소는, 도 2 및 도20에 도시된 전자 장치(100)의 구성 요소에 대응할 수 있으므로 설명을 생략하기로 한다.
도 22에 도시한 외부 장치(200)는 프로세서(220), 메모리(230) 및 통신부(280)를 포함할 수 있다. 그러나, 도 21에 도시된 구성 요소가 외부 장치(200)의 필수 구성 요소인 것은 아니다. 도 21에 도시된 구성 요소보다 많은 구성 요소에 의해 외부 장치(200)가 구현될 수도 있고, 도21에 도시된 구성 요소보다 적은 구성 요소에 의해 외부 장치(200)가 구현될 수도 있다.
일 실시 예에 따른 프로세서(220)는 외부 장치(200)를 전반적으로 제어할 수 있다. 프로세서(220)는 하나 또는 복수의 프로세서로 구성될 수 있다. 일 실시 예에 따른 프로세서(220)는 메모리(230)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다.
일 실시 예에 따른 메모리(230)는 외부 장치(200)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(230)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(230)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(220)에 의해 실행될 수 있다.
일 실시 예에 따른 메모리(230)는 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수다. 메모리(230)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있다. 예를 들어, 전자 장치(100)의 깊이 측정 영역 산출 모듈(131), 촬영 방향 결정 모듈(134), 이미지 처리 모듈(136), 깊이 산출 모듈(137) 등에 의해 수행되는 동작들이 외부 장치(200)의 프로세서(220)에 의해 수행되기 위한 소프트웨어 모듈이 외부 장치(200)의 메모리(230)에 저장될 수 있다.
또한, 메모리(230)는, 전자 장치(100)로부터 수신한, 카메라 모듈(175)에 의해 획득된 복수 개의 이미지를 저장할 수 있다.
통신부(280)는, 외부 장치(200)와 전자 장치(100) 또는 외부 장치(200)와 서버(미도시) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다.
예를 들어, 통신부(280)는, 근거리 통신부, 이동 통신부를 포함할 수 있다.
근거리 통신부는, 블루투스 통신부, 근거리 무선 통신부(NFC/RFID 부), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
일 실시 예에 따라 외부 장치(200)는, 통신부(280)를 통해, 전자 장치(100)로부터 복수 개의 이미지를 수신할 수 있다. 또한, 외부 장치(200)의 프로세서(220)는 수신한 이미지를 변환할 수 있다. 또한, 외부 장치(200)의 프로세서(220)는 변환된 이미지에 포함된 관심 영역의 깊이를 산출할 수 있다.
또한, 외부 장치(200)는, 통신부(280)를 통해, 변환된 이미지를 전자 장치(100)로 전송할 수 있다. 또한, 외부 장치(200)는, 통신부(280)를 통해, 관심 영역의 깊이에 관한 정보를 전자 장치(100)로 전송할 수 있다.
한편, 상술한 실시 예는, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터에 의해 판독 가능한 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시 예에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 또한, 상술한 실시 예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로 구현될 수 있다. 예를 들어, 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 컴퓨터가 읽고 실행할 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 기록 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 포함할 수 있다. 컴퓨터 판독 가능 매체는 마그네틱 저장매체, 예를 들면, 롬, 플로피 디스크, 하드 디스크 등을 포함하고,) 광학적 판독 매체, 예를 들면, 시디롬, DVD 등과 같은 저장 매체를 포함할 수 있으나, 이에 제한되지 않는다. 또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다.
또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터, 예를 들면 프로그램 명령어 및 코드가 적어도 하나의 컴퓨터에 의해 실행될 수 있다.
본 개시에서 설명된 특정 실행들은 일 실시 예 일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.
전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 개시에서 모든 예들 또는 예시적인 용어, 예를 들어, “등”의 사용은 단순히 본 개시를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 개시의 범위가 한정되는 것은 아니다.
또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 개시에 기재된 구성 요소들은 본 개시의 실행을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
본 개시의 실시 예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.
본 개시는 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 본 개시는 명세서에 기재된 특정한 실시 형태에 의해 한정되는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물이 본 개시에 포함되는 것으로 이해되어야 한다. 그러므로, 개시된 실시예들은 한정적인 관점이 아닌 설명적 관점에서 이해되어야 한다.
본 개시의 범위는 발명의 상세한 설명보다는 특허 청구 범위에 의하여 나타나며, 특허 청구 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.
본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
"부", "모듈"은 어드레싱될 수 있는 저장 매체에 저장되며 프로세서에 의해 실행될 수 있는 프로그램에 의해 구현될 수도 있다.
예를 들어, “부”, "모듈" 은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.
본 명세서에서, "A는 a1, a2 및 a3 중 하나를 포함할 수 있다"는 기재은, A라는 엘리먼트(element)에 포함될 수 있는 예시적인 엘리먼트가 a1, a2 또는 a3라는 넓은 의미이다.
상기 기재로 인해 엘리먼트 A를 구성할 수 있는 엘리먼트가 반드시 a1, a2 또는 a3로 국한된다는 것은 아니다. 따라서 A를 구성할 수 있는 엘리먼트가, a1, a2 및 a3 이외에 예시되지 않은 다른 엘리먼트들을 배제한다는 의미로, 배타적으로 해석되지 않음에 유의하여야 한다.
또한, 상기 기재는, A는 a1를 포함하거나, a2를 포함하거나, 또는 a3를 포함할 수 있다는 의미이다. 상기 기재가 A를 구성하는 엘리먼트들이 반드시 소정 집합 내에서 선택적으로 결정된다는 것을 의미하지는 않는다. 예를 들어 상기 기재가, 반드시 a1, a2 및 a3를 포함하는 집합으로부터 선택된 a1, a2, 또는 a3가 컴포넌트 A를 구성한다는 것으로, 제한적으로 해석되지 않음에 유의하여야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    회전 가능한 제1 및 2 카메라를 포함하는 카메라 모듈;
    하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 하나 이상의 인스터럭션을 실행하는 프로세서;를 포함하고,
    상기 프로세서는,
    실행 중인 기능에 따라 관심 영역을 결정하고,
    미리 정해진 제1 카메라 및 제2 카메라의 촬영 방향의 조합에 기초하여 상기 제1 및 2 카메라가 변향되도록 제어함으로써, 상기 관심 영역을 각각 포함하는 두 개 이상의 이미지를 획득하고,
    상기 획득된 두 개 이상의 이미지를 이용하여 상기 관심 영역의 깊이를 획득하는, 전자 장치.
  2. 제1 항에 있어서,
    상기 프로세서는,
    상기 카메라 모듈의 촬영 모드를 식별하고,
    상기 식별된 촬영 모드에 따라 상기 관심 영역을 결정하고,
    상기 촬영 모드에 대응하여 미리 설정된 제1 및 2 카메라의 촬영 방향의 조합에 기초하여 상기 제1 및 2 카메라가 변향되도록 제어하는, 전자 장치.
  3. 제1 항에 있어서,
    상기 프로세서는,
    상기 관심 영역의 적어도 일부가 상기 제1 및 2 카메라의 촬영 방향의 조합에 대응하는 깊이 측정 영역의 외부임을 판단함에 따라, 변경할 촬영 방향의 조합을 결정하는, 전자 장치.
  4. 제3 항에 있어서,
    상기 프로세서는,
    미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 상기 관심 영역을 포함하는 적어도 하나의 깊이 측정 영역에 대응하는 촬영 방향의 조합을 결정하고,
    상기 결정된 촬영 방향의 조합에 기초하여 상기 제1 및 2 카메라가 변향되도록 제어함으로써, 상기 관심 영역을 각각 포함하는 두 개 이상의 이미지를 획득하는, 전자 장치.
  5. 제4 항에 있어서,
    상기 미리 산출된 깊이 측정 영역에 관한 정보는,
    상기 제1 및 제2 카메라에 의해 촬영 가능한 복수의 촬영 방향의 조합에 따라 깊이 측정이 가능한 영역을 나타내는 정보인, 전자 장치.
  6. 제1 항에 있어서,
    사용자 눈의 시선 정보를 획득하는 시선 추적 센서를 더 포함하고,
    상기 프로세서는,
    사용자의 시선 방향의 객체를 추적하기 위한 시선 인식 모드로 식별됨에 따라, 상기 시선 정보에 기초하여 응시 지점에 관한 정보를 획득하고,
    상기 응시 지점에 기초하여 관심 영역을 결정하는, 전자 장치.
  7. 제1 항에 있어서,
    상기 프로세서는,
    상기 전자 장치 주변의 객체를 추적하기 위한 객체 인식 모드로 식별됨에 따라, 미리 정해진 타겟 객체에 기초하여 관심 영역을 결정하는, 전자 장치.
  8. 제1 항에 있어서,
    상기 프로세서는,
    사용자의 제스처를 인식하기 위한 제스처 인식 모드로 식별됨에 따라, 사용자 손의 위치에 기초하여 관심 영역을 결정하는, 전자 장치.
  9. 제1 항에 있어서,
    상기 프로세서는,
    상기 전자 장치 주변의 공간을 인식하기 위한 공간 인식 모드로 식별됨에 따라, 상기 전자 장치의 주변 영역에 기초하여 관심 영역을 결정하는, 전자 장치.
  10. 제1 항에 있어서,
    상기 프로세서는,
    상기 제1 카메라에 의해 획득된 제1 이미지 상의 제1 특징점과 상기 제2 카메라에 의해 획득된 제2 이미지 상의 제2 특징점의 매칭에 기초하여, 상기 제1 이미지와 상기 제2 이미지를 변환하고,
    상기 변환된 이미지는,
    상기 제1 카메라와 상기 제2 카메라가 서로 평행하게 배치된 상태에서 촬영되었을 이미지로 변환된 것인, 전자 장치.
  11. 회전 가능한 제1 및 2 카메라를 포함하는 전자 장치의 동작 방법에 있어서,
    실행 중인 기능에 따라 관심 영역을 결정하는 단계;
    미리 정해진 제1 및 2 카메라의 촬영 방향의 조합에 기초하여 상기 제1 및 2 카메라가 변향되도록 제어함으로써, 상기 관심 영역을 각각 포함하는 두 개 이상의 이미지를 획득하는 단계; 및
    상기 획득된 두 개 이상의 이미지를 이용하여 상기 관심 영역의 깊이를 획득하는 단계를 포함하는, 동작 방법.
  12. 제11 항에 있어서,
    상기 관심 영역을 결정하는 단계는,
    상기 카메라 모듈의 촬영 모드를 식별하는 단계; 및
    상기 식별된 촬영 모드에 따라 상기 관심 영역을 결정하는 단계를 포함하고,
    상기 이미지를 획득하는 단계는,
    상기 촬영 모드에 대응하여 미리 설정된 제1 및 2 카메라의 촬영 방향의 조합에 기초하여 상기 제1 및 2 카메라가 변향되도록 제어하는 단계를 포함하는, 동작 방법.
  13. 제11 항에 있어서,
    상기 이미지를 획득하는 단계는,
    상기 관심 영역의 적어도 일부가 상기 제1 및 2 카메라의 촬영 방향의 조합에 대응하는 깊이 측정 영역의 외부임을 판단함에 따라, 변경할 촬영 방향의 조합을 결정하는 단계를 포함하는, 동작 방법.
  14. 제13 항에 있어서,
    상기 이미지를 획득하는 단계는,
    미리 산출된 깊이 측정 영역에 관한 정보에 기초하여, 상기 관심 영역을 포함하는 적어도 하나의 깊이 측정 영역에 대응하는 촬영 방향의 조합을 결정하는 단계; 및
    상기 결정된 촬영 방향의 조합에 기초하여 상기 제1 및 2 카메라가 변향되도록 제어함으로써, 상기 관심 영역을 각각 포함하는 두 개 이상의 이미지를 획득하는 단계를 포함하는, 동작 방법.
  15. 제11 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2021/006814 2020-06-04 2021-06-01 전자 장치 및 그 동작 방법 WO2021246758A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200067864A KR20210150881A (ko) 2020-06-04 2020-06-04 전자 장치 및 그 동작 방법
KR10-2020-0067864 2020-06-04

Publications (1)

Publication Number Publication Date
WO2021246758A1 true WO2021246758A1 (ko) 2021-12-09

Family

ID=78830082

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/006814 WO2021246758A1 (ko) 2020-06-04 2021-06-01 전자 장치 및 그 동작 방법

Country Status (2)

Country Link
KR (1) KR20210150881A (ko)
WO (1) WO2021246758A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102613032B1 (ko) * 2022-11-16 2023-12-12 주식회사 지디에프랩 사용자의 시야 영역에 매칭되는 뎁스맵을 바탕으로 양안 렌더링을 제공하는 전자 장치의 제어 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120088828A (ko) * 2009-12-04 2012-08-08 알까뗄 루슨트 물체의 입체 이미지를 위한 향상된 깊이 정밀도를 획득하기 위한 방법 및 시스템
KR101229421B1 (ko) * 2011-03-17 2013-02-05 전북대학교산학협력단 다중 세그먼트 방식을 이용한 3d 입체영상 획득 장치 및 방법
JP2017037426A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
KR20170022078A (ko) * 2015-08-19 2017-03-02 삼성전자주식회사 디스플레이 장치 및 그의 제어방법
KR20170139098A (ko) * 2015-04-19 2017-12-18 포토네이션 케이맨 리미티드 Vr/ar 응용에서 심도 증강을 위한 다중-기선 카메라 어레이 시스템 아키텍처
KR20190040746A (ko) * 2017-10-11 2019-04-19 주식회사 대진애니메이션 3차원 관심영역 복원 시스템 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120088828A (ko) * 2009-12-04 2012-08-08 알까뗄 루슨트 물체의 입체 이미지를 위한 향상된 깊이 정밀도를 획득하기 위한 방법 및 시스템
KR101229421B1 (ko) * 2011-03-17 2013-02-05 전북대학교산학협력단 다중 세그먼트 방식을 이용한 3d 입체영상 획득 장치 및 방법
KR20170139098A (ko) * 2015-04-19 2017-12-18 포토네이션 케이맨 리미티드 Vr/ar 응용에서 심도 증강을 위한 다중-기선 카메라 어레이 시스템 아키텍처
JP2017037426A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
KR20170022078A (ko) * 2015-08-19 2017-03-02 삼성전자주식회사 디스플레이 장치 및 그의 제어방법
KR20190040746A (ko) * 2017-10-11 2019-04-19 주식회사 대진애니메이션 3차원 관심영역 복원 시스템 및 방법

Also Published As

Publication number Publication date
KR20210150881A (ko) 2021-12-13

Similar Documents

Publication Publication Date Title
WO2019147021A1 (en) Device for providing augmented reality service, and method of operating the same
WO2020209491A1 (en) Head-mounted display device and operating method of the same
WO2018124662A1 (en) Method and electronic device for controlling unmanned aerial vehicle
WO2019132518A1 (en) Image acquisition device and method of controlling the same
WO2017090833A1 (en) Photographing device and method of controlling the same
WO2021125903A1 (en) Wearable device including eye tracking apparatus and operation method of the wearable device
WO2016182090A1 (ko) 안경형 단말기 및 이의 제어방법
WO2016175424A1 (ko) 이동 단말기 및 그 제어 방법
WO2020101420A1 (ko) 증강현실 기기의 광학 특성 측정 방법 및 장치
WO2015174611A1 (ko) 이동 단말기 및 그것의 제어 방법
WO2019231042A1 (ko) 생체 인증 장치
WO2017204498A1 (ko) 이동 단말기
WO2017007166A1 (ko) 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법
WO2017022872A1 (ko) 헤드 마운티드 디스플레이 및 그 제어방법
WO2016013768A1 (ko) 이동단말기 및 그 제어방법
WO2021230559A1 (ko) 전자 장치 및 그 동작 방법
WO2022164094A1 (ko) Hmd(head mounted display)의 영상 처리 방법 및 이 방법을 실행하는 hmd
WO2021246758A1 (ko) 전자 장치 및 그 동작 방법
WO2015064935A1 (en) Electronic device and control method thereof
WO2022010192A1 (ko) 웨어러블 디바이스 및 그 동작 방법
WO2019208915A1 (ko) 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법
WO2016013692A1 (ko) 헤드 마운티드 디스플레이 및 그 제어방법
WO2022075686A1 (ko) 전자 장치 및 그 동작 방법
WO2019177219A1 (ko) 광학 장치 및 이를 구비하는 이동 단말기
WO2021242008A1 (en) Electronic device and operating method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21817685

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21817685

Country of ref document: EP

Kind code of ref document: A1