WO2021133053A1 - Electronic device and method for controlling same - Google Patents

Electronic device and method for controlling same Download PDF

Info

Publication number
WO2021133053A1
WO2021133053A1 PCT/KR2020/018980 KR2020018980W WO2021133053A1 WO 2021133053 A1 WO2021133053 A1 WO 2021133053A1 KR 2020018980 W KR2020018980 W KR 2020018980W WO 2021133053 A1 WO2021133053 A1 WO 2021133053A1
Authority
WO
WIPO (PCT)
Prior art keywords
size
image
depth
display
displayed
Prior art date
Application number
PCT/KR2020/018980
Other languages
French (fr)
Korean (ko)
Inventor
조승현
송석우
이요한
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2021133053A1 publication Critical patent/WO2021133053A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present disclosure relates to an electronic device and a control method thereof, and more particularly, to an electronic device displaying an AR object and a control method thereof.
  • AR augmented reality
  • AR is a technology that combines and displays a virtual object (or information) in an image taken of the physical space of the real environment. Through the virtual object displayed on the display, it may be displayed as if the virtual object exists together in the real space, and useful information related to the real object may be provided to the user.
  • the user may recognize the perspective (or distance) of the object by recognizing the small size of the object located far from the user in the real space and recognizing the large size of the object located close to the user.
  • the AR space ie, a virtual space grafted with reality
  • the size of the virtual object placed in the AR space varies according to the distance from the user (or electronic device).
  • the present disclosure has been made in response to the above-mentioned necessity, and an object of the present disclosure is to provide an electronic device for adjusting the size of an AR object and a method for controlling the same.
  • an electronic device controls the display to display an AR object on a camera, a display, and an image acquired through the camera, and the mode of the electronic device is a normal mode
  • the mode of the electronic device is a normal mode
  • the size of the AR object displayed on the display is adjusted based on the changed depth, and in a state that the mode of the electronic device is the arrangement mode, and a processor that controls to maintain the size at which the AR object is displayed on the display when the depth of the point where the AR object is located on the image is changed.
  • the depth of the point at which the AR object is located may be changed as the point at which the camera is located or the point at which the AR object is located on the image moves according to the depth direction.
  • the processor controls the display to display the AR object on the image and the image based on the size of the AR object, and in the arrangement mode, when the depth of the point where the AR object is located on the image is changed, the AR object is displayed on the display. You can change the size of the AR object so that it retains its displayed size.
  • the processor increases the size of the AR object to maintain the size at which the AR object is displayed on the display when the depth of the point where the AR object is located increases while the mode of the electronic device is the arrangement mode, and the AR object is positioned
  • the size of the AR object may be reduced to maintain the size at which the AR object is displayed on the display.
  • the processor controls the display to display the AR object on the image and the image based on the size of the AR object, and in a state where the mode of the electronic device is the normal mode, allocates the depth of the point where the AR object is located and the AR object Based on the specified properties, the size of the AR object displayed on the display can be adjusted.
  • the processor controls the size at which the AR object is displayed on the display to be maintained when the property assigned to the AR object is a property in which the size is fixed while the mode of the electronic device is the normal mode, and the property assigned to the AR object When this size is a variable property, the size of the AR object displayed on the display may be adjusted based on the changed depth.
  • the processor maintains the size at which the AR object is displayed on the display when the depth of the AR object on the image is changed when the property assigned to the AR object is a fixed size while the mode of the electronic device is the normal mode.
  • the mode of the electronic device is in the normal mode
  • the AR is displayed on the display so that the size decreases when the depth of the point where the AR object is located on the image increases.
  • the size at which the object is displayed may be adjusted, and the size at which the AR object is displayed on the display may be adjusted so that the size increases when the depth of the point where the AR object is located decreases.
  • a method of controlling an electronic device includes displaying an image acquired through a camera and an AR object on the image, and in a state in which the mode of the electronic device is a normal mode, the AR object is positioned on the image If the depth of the point is changed, adjusting the size at which the AR object is displayed based on the changed depth, and in a state that the mode of the electronic device is the arrangement mode, the depth of the point where the AR object is located on the image is changed and controlling the AR object to maintain the displayed size.
  • the depth of the point at which the AR object is located may be changed as the point at which the camera is located or the point at which the AR object is located on the image moves according to the depth direction.
  • the AR object is displayed on the image and on the image based on the size of the AR object, and in the controlling step in the arrangement mode, when the depth of the point where the AR object is located on the image is changed, the AR object You can change the size of the AR object so that it retains its displayed size.
  • the controlling includes increasing the size of the AR object to maintain the displayed size when the depth of the point where the AR object is located increases in the arrangement mode, and in the arrangement mode, the AR object
  • the method may include reducing the size of the AR object to maintain the size at which the AR object is displayed when the depth of the point at which is located is decreased.
  • the displaying step displays the image and the AR object on the image based on the size of the AR object
  • the adjusting step is in the normal mode, in the depth of the point where the AR object is located and the properties assigned to the AR object. Based on this, the size at which the AR object is displayed can be adjusted.
  • the adjusting step is a step of controlling so that the displayed size of the AR object is maintained when the property assigned to the AR object is a property with a fixed size in the normal mode, and assigning the AR object to the AR object in the normal mode
  • the method may include adjusting the displayed size of the AR object to be changed based on the changed depth.
  • the adjusting includes controlling the size at which the AR object is displayed to be maintained when the depth of the AR object is changed on the image when the property assigned to the AR object is a property in which the size is fixed in the normal mode; In the normal mode, if the property assigned to the AR object is a property that changes in size, adjust the displayed size of the AR object so that the size decreases if the depth of the point where the AR object is located on the image increases, If the depth of the point where is is decreased, the size of the AR object displayed can be adjusted so that the size increases.
  • the visibility of the AR object and the operation convenience of the AR object may be improved.
  • FIG. 1 is a diagram for describing an electronic device according to an embodiment of the present disclosure.
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a block diagram illustrating an additional configuration of an electronic device according to an embodiment of the present disclosure.
  • 4A is a diagram for explaining the size of an AR object according to an embodiment of the present disclosure.
  • 4B is a diagram for explaining the size of an AR object according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
  • FIG. 12 is a view for explaining an arrangement mode according to an embodiment of the present disclosure.
  • 13A is a diagram for describing an arrangement mode according to an embodiment of the present disclosure.
  • 13B is a diagram for describing an arrangement mode according to an embodiment of the present disclosure.
  • 13C is a diagram for describing an arrangement mode according to an embodiment of the present disclosure.
  • FIG. 14 is a diagram for explaining a normal mode according to an embodiment of the present disclosure.
  • 15A is a diagram for describing a normal mode according to an embodiment of the present disclosure.
  • 15B is a diagram for explaining a normal mode according to an embodiment of the present disclosure.
  • 16 is a diagram for describing a flowchart according to an embodiment of the present disclosure.
  • expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together.
  • “A or B,” “at least one of A and B,” or “at least one of A or B” means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
  • a component eg, a first component is "coupled with/to (operatively or communicatively)" to another component (eg, a second component)
  • another component eg, a second component
  • the certain element may be directly connected to the other element or may be connected through another element (eg, a third element).
  • a component eg, a first component
  • another component eg, a second component
  • a device configured to may mean that the device is “capable of” with other devices or parts.
  • a processor configured (or configured to perform) A, B, and C refers to a dedicated processor (eg, an embedded processor) for performing the above operations, or by executing one or more software programs stored in a memory device.
  • a generic-purpose processor eg, a CPU or an application processor
  • FIG. 1 is a diagram for describing an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 is a device capable of providing augmented reality (AR), and may be implemented as a smart phone or the like.
  • augmented reality may refer to combining a virtual object (hereinafter, augmented reality object; AR object) with an image based on a real environment (space or object).
  • the electronic device 100 may display an image and an AR object on the image. That is, the electronic device 100 may combine an image and an AR object, and display the AR object by superimposing it on the image.
  • the image may include a photographed subject.
  • the subject refers to the real environment 10 located in the photographing area.
  • the image can be recognized as a three-dimensional space through simultaneous localization and mapping (SLAM).
  • SLAM simultaneous localization and mapping
  • the image may be a plurality of image frames photographed in units of a preset frame rate.
  • the AR object may be an image in which an existing object is rendered in 2D or 3D.
  • the AR object may be implemented in the same form as a 2D or 3D rendered image of objects such as a TV, a digital picture frame, a sound bar, a refrigerator, a washing machine, furniture, a car, a building, and a tree.
  • the AR object is not limited thereto, and may be implemented in the form of various information such as text, text, image, photo, video, document, dashboard, and the like.
  • the AR object may be displayed in a translucent state.
  • the AR object may be located at a specific point on an image recognized as a 3D space.
  • a specific point on the image may be represented by three-dimensional space coordinates.
  • the x-axis represents the horizontal direction
  • the y-axis represents the vertical direction
  • the z-axis represents the depth direction.
  • a point on the image where the AR object is located may have a relative positional relationship with a point where a subject (eg, a floor, a plane, a wall, an object, etc.) included in the image is located.
  • a subject eg, a floor, a plane, a wall, an object, etc.
  • the AR object in the same direction as the direction in which the point where the subject is located is changed (or moved)
  • the point where is located may be changed (or moved).
  • the depth may indicate a distance between a point where the electronic device 100 (or camera) is positioned and a point where the AR object is positioned in a three-dimensional space on an image along the z-axis (depth direction).
  • the size (default size) of the AR object may be preset for each AR object.
  • the size of the AR object may indicate a size displayed in the standard depth, and the size may collectively refer to various concepts such as area, volume, diagonal length, horizontal and vertical length, radius, and diameter.
  • the standard depth may indicate a distance (eg, a distance on a z-axis) that is a reference so that the AR object is displayed in a preset size.
  • the standard depth may be preset to a distance of 1 m, which is an example and may be changed to various distances.
  • the size of the AR object may be changed according to a user command.
  • the electronic device 100 may display the AR object in a preset size. For example, assuming that the size of an AR object, such as a 100-inch TV, is preset to be 220 x 125 in height, the electronic device 100 sets the depth of the AR object (100-inch TV) located on the image to 1 m, which is the standard depth. When , the AR object may be displayed in a preset size of 220 x 125 in height.
  • the electronic device 100 may adjust or maintain the displayed size of the AR object according to the mode of the electronic device.
  • the mode may be one of a normal mode and a batch mode.
  • the normal mode is a mode in which the size at which the AR object is displayed may be changed according to the depth of the point where the AR object is disposed (the distance between the electronic device (or camera) and the AR object).
  • the arrangement mode is a mode in which a point where an AR object is located in an image can be changed according to a user command, and the size at which the AR object is displayed can be maintained regardless of the depth of the point where the AR object is placed. That is, the normal mode is a mode to which the perspective for the AR object is applied, and the arrangement mode is a mode to which the perspective to the AR object is not applied.
  • an electronic device for adjusting the size of an AR object and a method for controlling the same.
  • the visibility of the AR object and the operation convenience of the AR object may be improved.
  • the electronic device 100 is illustrated as a smartphone in FIG. 1 , this is only an example, and the electronic device 100 may be implemented as a wearable device that a user can wear.
  • the wearable device may be an accessory type (eg, watch, ring, bracelet, anklet, necklace, eyeglasses, contact lens, or head-mounted-device (HMD)), a textile or an integrated garment (eg, electronic garment). ), body-attached, or bioimplantable circuit, etc.
  • the electronic device 100 may include a tablet PC, a speaker, a mobile phone, a telephone, an e-book reader, a desktop PC, a laptop PC, etc.
  • the electronic device 100 may be implemented as a device having a transparent display or a flexible display in some cases.
  • AR augmented reality
  • VR virtual reality
  • MR mixed reality
  • XR extended reality
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure
  • FIG. 3 is a block diagram illustrating an additional configuration of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 may include a camera 110 , a display 120 , and a processor 130 .
  • the camera 110 may acquire an image. Specifically, the camera 110 may acquire an image by photographing a subject existing within a field of view (FoV) of the camera 110 at a specific point of view (PoV) of the camera 110 . Also, the camera 110 may sequentially acquire a plurality of images through continuous shooting.
  • FoV field of view
  • PoV point of view
  • the image acquired through the camera 110 or metadata separate from the image may include information about a frame rate, time, viewpoint, angle of view, etc. captured by the camera 110 .
  • the frame rate represents the number of frames (the number of images) acquired per second (or per minute)
  • the angle of view represents the focal length of the lens of the camera 110 and that of the camera 110 .
  • a value determined according to a size (eg, a diagonal length) of an image sensor (not shown) may be represented.
  • the viewpoint may be detected by a sensor (eg, a gyro sensor, an acceleration sensor, etc.) provided inside or outside the camera 110 .
  • the camera 110 may be implemented as an RGB camera or a stereo camera.
  • the RGB camera may include a lens (not shown), an image sensor (not shown), and an image processor (not shown).
  • the lens collects or diverges the light reflected from the object to the image sensor, and the image sensor divides the transmitted light into pixels and detects R (Red), G (Green), B (Blue) colors for each pixel.
  • the signal is generated, and the image processor processes each pixel according to the electrical signal detected by the image sensor to obtain an image representing the color, shape, contrast, etc. of the object.
  • the image is a projection of a real three-dimensional space onto a virtual two-dimensional plane, and each point (pixel) on the two-dimensional plane constituting the image contains two-dimensional position information (eg, position on the x-axis, position on the y-axis).
  • the image processor uses a programming library (eg, AR Core, AR Tool Kit, AR SDK) for analyzing real-time computer vision for shading, contrast, point cloud, color, etc. of the image. , Unity, OpenCV (Open Source Computer Vision), Python, etc.), and various algorithms such as SLAM, a depth (eg, a position on the z-axis) can be given to each point (pixel) composing an image.
  • the image acquired through the camera 110 may include 3D position information (eg, an x-axis position, a y-axis position, and a z-axis position).
  • the stereo camera includes a plurality of the above-described RGB cameras, and the plurality of RGB cameras may be disposed to be spaced apart from each other.
  • the description of the RGB camera may be applied.
  • the stereo camera may acquire a plurality of images by simultaneously photographing a subject at different positions at the same point of time.
  • the image processor calculates disparity by stereo matching a plurality of images, and based on the disparity, the focal length of the lens and the baseline, the camera ( 110) and the depth (or distance) between the subject may be calculated.
  • the image processor or processor 130 ) combines two-dimensional position information (eg, an x-axis position, a y-axis position) and depth information (eg, a z-axis position) of a reference image among a plurality of images to obtain a reference image 3D position information (eg, an x-axis position, a y-axis position, and a z-axis position) of an object included in the frame may be acquired.
  • two-dimensional position information eg, an x-axis position, a y-axis position
  • depth information eg, a z-axis position
  • a reference image 3D position information eg, an x-axis position, a y-axis position, and a z-axis
  • stereo matching refers to matching the same subject included in a plurality of images for the same viewpoint through various methods such as global matching and local matching.
  • the parallax indicates a position difference (eg, a position difference on an x-axis or a y-axis) of the same subject included in a plurality of images, and the greater the focal length or baseline, the higher the parallax.
  • the focal length may refer to a distance between the image sensor and the lens.
  • the baseline may refer to an interval at which a plurality of RGB cameras are spaced apart.
  • the reference image may refer to an image captured by one preset RGB camera among a plurality of RGB cameras.
  • the camera 110 may be implemented as an RGB-D (Depth) camera.
  • the RGB-D (Depth) camera may acquire an image by photographing a subject, and detect a depth (or distance) between the camera 110 and the subject.
  • the processor 140 combines the two-dimensional position information (eg, the x-axis position, the y-axis position) and the depth information (eg, the z-axis position) of the image frame, and the three-dimensional position of the object included in the image frame.
  • Information eg, position on the x-axis, position on the y-axis, position on the z-axis
  • the RGB-D camera may include a sensor (eg, a Time Of Flight (TOF) sensor, a LIDAR sensor, etc.) coupled to an RGB camera or a stereo camera.
  • TOF Time Of Flight
  • LIDAR LIDAR
  • the processor 130 may control the display 120 to display an AR object at a specific location on the image while building a map using the SLAM-based tracking technology of the camera 110 . have.
  • the processor 130 constructs a map of a three-dimensional space through a subject, a feature point, or a point cloud of each of the plurality of images.
  • the processor 130 compares the map with the three-dimensional space in the image (hereinafter, the current image) most recently acquired through the camera, to the point on the current image corresponding to the point on the map where the AR object is located.
  • the display 120 may be controlled to display the AR object. Accordingly, the point at which the AR object is displayed can be synchronized in real time.
  • the display 120 is a device for visually outputting information or data.
  • the display 120 may display the image and the AR object in all or part of the display area.
  • the display area may refer to a pixel unit area in which information or data is visually displayed.
  • the display 120 may be implemented as a flexible display.
  • the display 120 has a flexible property that can be bent or bent, and displays images and AR objects even in a bent or bent state. can do.
  • the display 120 may be implemented as a transparent display, and an object located behind the display 120 may be transmitted through the display 120 due to the transparent nature of the display 120 .
  • the processor 130 controls the display 120 to display the AR object on the image and the image acquired through the camera 110, and the AR object is displayed on the image while the mode of the electronic device 100 is the normal mode.
  • the size of the AR object displayed on the display 120 is adjusted based on the changed depth, and in the state that the mode of the electronic device 100 is the arrangement mode, AR is displayed on the image.
  • the depth of the point where the object is located is changed, it is possible to control the display 120 to maintain the size at which the AR object is displayed.
  • the processor 130 may control the display 120 to display the AR object on the image and the image acquired through the camera 110 .
  • the processor 130 may control the display 120 to display the image and the AR object on the image based on the size of the AR object.
  • the size of the AR object is set to a size displayed at the standard depth for each AR object as a default, and may be changed according to the mode.
  • the size may collectively refer to various concepts such as area, volume, diagonal length, horizontal and vertical length, radius, and diameter.
  • the processor 130 displays the AR on the display 120 based on the changed depth. You can adjust the size at which the object is displayed.
  • the depth of the point where the AR object is positioned may be changed as the point where the camera 110 is positioned is moved according to the depth direction.
  • the depth direction may be a z-axis direction.
  • the point at which the camera 110 is located may be changed.
  • the distance (depth) between the point where the camera 110 is positioned and the point where the AR object is positioned may be changed. This can be applied not only in normal mode but also in batch mode.
  • the processor 130 performs the display 120 on the basis of the depth of the point where the AR object is located and the attribute assigned to the AR object in a state in which the mode of the electronic device 100 is the normal mode. ), you can adjust the size of the AR object displayed.
  • the processor 130 displays the display 120 when the depth of the AR object on the image is changed when the attribute assigned to the AR object is a fixed size while the mode of the electronic device 100 is the normal mode.
  • the property assigned to the AR object is a property whose size changes
  • the point at which the AR object is located on the image The size at which the AR object is displayed on the display 120 is adjusted so that the size decreases when the depth of the AR object increases, and the size at which the AR object is displayed on the display 120 increases when the depth of the point where the AR object is located decreases. can be adjusted.
  • the attribute assigned to the AR object may be one of a fixed size attribute and a variable size attribute.
  • Each AR object has a property selected according to a user command (eg, a touch gesture, a motion gesture, a user's voice, a mouse click, etc.) through the input interface 170 (refer to FIG. 3) among the properties of fixed size and properties of variable size. can be assigned.
  • a user command eg, a touch gesture, a motion gesture, a user's voice, a mouse click, etc.
  • the processor 130 may consider that a size-variable attribute is assigned to the AR object when a fixed-size attribute is not assigned to the AR object.
  • the processor 130 may assign a fixed size attribute to the AR object when the AR object is text-type information such as letters, numbers, and symbols, even without a user command (ie, automatically).
  • the attribute assigned to the AR object may be stored in the memory 150 .
  • the user command of the present disclosure may be, for example, various types of input such as a touch gesture, a motion gesture, a user's voice, a mouse click, a keyboard input, a button input, and the like, and further, the user command is not limited thereto, and the development of technology is not limited thereto. Accordingly, it can be transformed into any type of input that the user can interact with with the electronic device.
  • a touch gesture a motion gesture
  • a user's voice a mouse click
  • keyboard input e.g., a button input
  • the user command is not limited thereto, and the development of technology is not limited thereto. Accordingly, it can be transformed into any type of input that the user can interact with with the electronic device.
  • the touch gesture is described.
  • the processor 130 displays the AR object on the display 120 based on the changed depth when the property assigned to the AR object is a property whose size changes. You can adjust the displayed size to change. That is, in this case, perspective may be applied to the AR object as shown in FIG. 4A .
  • the processor 130 increases the depth of the point at which the AR object is located on the image when the property assigned to the AR object is a property whose size changes while the mode of the electronic device 100 is the normal mode. If the AR object is adjusted so that the size at which the AR object is displayed on the display 120 is decreased, the AR object is adjusted to decrease the size of the AR object displayed on the display 120 when the depth of the point where the AR object is located on the image is decreased. objects can be adjusted.
  • the depth of the AR objects 415 and 425 is changed from 1m to 3m by moving the viewpoint of the camera 110 in the normal mode, referring to FIG. 4A .
  • the processor 130 sets the display 120 to display the AR objects 415 and 425 on the images 410 and 420 based on the sizes and depths (1m, 3m) of the AR objects 415 and 425 .
  • the AR objects 415 and 425 have the same preset size (default size).
  • the size of the AR objects 415 and 425 may be a size displayed at a standard depth (eg, 1 m).
  • the processor 130 may control the display 120 to display the AR 415 on the image 410 with a preset size of the AR object 415 at a depth of 1 m, which is a standard depth.
  • the processor 130 determines that the property assigned to the AR object is fixed in size and the size is changed. You can determine which of the properties are.
  • the processor 130 sets the AR object to a size smaller than the preset size of the AR object 425 by perspective at a depth of 3 m greater than the standard depth ( The display 120 may be controlled to display 425 on the image 420 .
  • the processor 130 may decrease the size of the AR objects 415 and 425 displayed on the images 410 and 420 .
  • the processor 130 may increase the size of the AR objects 415 and 425 displayed on the images 410 and 420 according to the decreased depth.
  • the processor 130 controls the display 120 to maintain the size at which the AR object is displayed when the property assigned to the AR object is a fixed size property while the mode of the electronic device 100 is the normal mode. can do. That is, in this case, the perspective for the AR object may be ignored as shown in FIG. 4B .
  • the processor 130 changes the depth of the point at which the AR object is located on the image when the property assigned to the AR object is a property in which the size is fixed while the mode of the electronic device 100 is the normal mode. Even if it is, it is possible to control so that the size of the AR object displayed on the display 120 is maintained.
  • the depth with the AR objects 435 and 445 is changed from 1m to 3m by moving the viewpoint of the camera 110 in the normal mode, referring to FIG. 4B .
  • the processor 130 sets the display 120 to display the AR objects 435 and 445 on the images 430 and 440 based on the sizes and depths (1m, 3m) of the AR objects 435 and 445 .
  • the AR objects 435 and 445 have the same preset size (default size).
  • the size of the AR objects 435 and 445 may be a size displayed at a standard depth (eg, 1 m).
  • the processor 130 may control the display 120 to display the AR 435 on the image 420 with a preset size of the AR object 435 at a depth of 1 m, which is a standard depth.
  • the processor 130 determines that the property assigned to the AR object has a fixed size and size. It is possible to determine which of the properties that is changed.
  • the processor 130 sets the AR object 445 to a size smaller than the preset size of the AR object 445 at a depth of 3 m greater than the standard depth.
  • the preset size of the AR object 445 may be largely adjusted according to the depth of the point where the AR object 445 is disposed. Accordingly, perspective according to the depth of the AR object may be ignored.
  • size(A) is the size when the AR object is located at point A
  • size(B) is the size when the AR object is located at point B
  • distance(AB) is the depth between point A and point B It can represent a difference (or distance).
  • the processor 130 may maintain the size at which the AR object is displayed on the display 120 at a constant size by adjusting a predetermined original size (or the original size of the AR object) of the AR object.
  • the size of the AR object displayed on the display 120 may be maintained so that the size displayed on the display 120 is not displayed large or small. Accordingly, the visibility of information may be improved in that the user can view an AR object to which an attribute having a fixed size, such as text-type information, is assigned regardless of a depth (distance) in an appropriate size. In addition, user convenience may be improved in that the user does not need to separately adjust the size of the AR object.
  • the processor 130 controls to maintain the size at which the AR object is displayed on the display 120 . can do. That is, in this case, the perspective for the AR object may be ignored.
  • the arrangement mode not only the editing mode for correcting (editing) the point where the AR object displayed on the image is located, but also an additional mode for locating the AR object not displayed on the image at a specific point on the image. may include
  • the depth of the point at which the AR object is located may be changed according to the movement of the point at which the camera 110 is located or the point at which the AR object is located on the image according to the depth direction.
  • the point at which the AR object is located on the image may be changed.
  • the distance (depth) between the point where the camera 110 is positioned and the point where the AR object is positioned may be changed. This can be applied only in the arrangement mode where the point at which the AR object is placed can be changed.
  • the processor 130 when the depth of the point where the AR object is located on the image is changed in the arrangement mode, the processor 130 maintains the size at which the AR object is displayed on the display 120 to maintain the AR object. can change the size of
  • the processor 130 controls the size of the AR object to maintain the size at which the AR object is displayed on the display 120 . size can be increased.
  • the processor 130 controls the size of the AR object to maintain the size at which the AR object is displayed on the display 120 . size can be reduced.
  • the depth with the AR objects 435 and 445 is changed from 1 m to 3 m by moving the point where the AR object is located in the arrangement mode with reference to FIG. 4B .
  • the processor 130 displays the AR objects 435 and 445 on the images 430 and 440 based on the sizes and depths (eg, 1m, 3m) of the AR objects 435 and 445 on the display 120 to display the AR objects 435 and 445 . ) can be controlled.
  • the sizes of the AR objects 435 and 445 may be changed from the same preset size (default size).
  • the processor 130 may control the display 120 to display the AR 435 on the image 430 with a preset size of the AR object 435 at a depth of 1 m, which is a standard depth.
  • the processor 130 determines that at a depth of 3m greater than the standard depth, the AR object 445 is larger than the preset size.
  • the preset size of the AR object 445 may be increased according to the depth of the point where the AR object 445 is disposed. Accordingly, perspective according to the depth of the AR object may be ignored.
  • size(A) is the size when the AR object is located at point A
  • size(B) is the size when the AR object is located at point B
  • distance(AB) is the depth between point A and point B It can represent a difference (or distance).
  • the processor 130 may maintain the size at which the AR object is displayed on the display 120 at a constant size by adjusting a predetermined unique size of the AR object.
  • the electronic device 100 may maintain the size at which the AR object is displayed on the display 120 so as to ignore the perspective while changing the position at which the AR object is disposed in the arrangement mode. have. Accordingly, user convenience in manipulating the AR object may be improved in that the size of the AR display does not change depending on the depth of the point where the AR object is located, and it is easier for the user to know what the actual size of the AR object is. It has a predictable effect.
  • the electronic device 100 includes a speaker 140 , a memory 150 , a communication unit 160 , and a camera 110 , a display 120 , and a processor 130 in addition to the processor 130 . At least one of the input interfaces 170 may be further included.
  • the processor 130 may control the electronic device 100 by executing at least one instruction stored in the memory 150 .
  • the processor 130 may be connected to the camera 110 , the display 120 , and the memory 150 to control the electronic device 100 .
  • the processor 130 may read and interpret the instructions and determine a sequence for data processing, thereby controlling the operation of another device by providing timing and control signals for controlling the operation of the other device to the other device. have.
  • the processor 130 may control the electronic device 100 by executing at least one instruction stored in a memory (not shown) provided in the processor 130 .
  • the memory provided in the processor 130 includes a ROM (eg, NOR or NAND type flash memory), a RAM (eg, dynamic RAM (DRAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM)), volatile memory and the like.
  • the processor 130 may include one or a plurality of processors, and the processor 130 is a general-purpose processor such as a central processing unit (CPU), an application processor (AP), a graphic processing unit (GPU), and a vision (VPU). It may be implemented with a graphics-only processor, such as a processing unit, or an artificial intelligence-only processor, such as a neural processing unit (NPU).
  • a general-purpose processor such as a central processing unit (CPU), an application processor (AP), a graphic processing unit (GPU), and a vision (VPU).
  • GPU central processing unit
  • AP application processor
  • GPU graphic processing unit
  • VPU vision
  • GPU graphics-only processor
  • NPU artificial intelligence-only processor
  • the processor 130 may include a GPU and a CPU, and the GPU and the CPU may perform the operations of the present disclosure in connection.
  • the GPU may process an image frame among data
  • the CPU may process the remaining data (eg, instructions, code, etc.).
  • the GPU is implemented in a structure with hundreds or thousands of cores specialized for a parallel processing method that processes multiple commands or data simultaneously, and the CPU has several cores specialized for a serial processing method that processes commands or data in the order in which they are input. It can be implemented with a structure with
  • the GPU detects a plurality of fingers from the plurality of first image frames acquired through the camera 110 , and the CPU determines that the detected poses of the plurality of fingers correspond to the trigger poses, inputting a character mode, the GPU detects the motion of one of the plurality of fingers in the plurality of second image frames acquired through the camera 110 in the text input mode, and the CPU detects the position of the finger by the motion and the finger
  • the display 120 may be controlled to identify a key corresponding to a motion among a plurality of keys mapped to a finger based on the position of the set reference point and display information corresponding to the identified key.
  • the speaker 140 may directly output various notification sounds or voice messages as well as various audio data on which various processing operations such as decoding, amplification, and noise filtering have been performed by an audio processing unit (not shown), and the electronic device ( 100) or may be implemented as a separate external device.
  • the speaker 160 may be implemented as a directional speaker that transmits sound only to a specific location or area.
  • the memory 150 may refer to hardware that stores information such as data in an electrical or magnetic form so that the camera 110, the processor 130, etc. can access it, and the memory 150 is a non-volatile memory, a volatile memory, and the like. , a flash memory, a hard disk drive (HDD) or a solid state drive (SSD), RAM, ROM, etc. may be implemented as hardware.
  • At least one instruction, program, or data required for the operation of the electronic device 100 or the processor 130 may be stored in the memory 150 .
  • the instruction is a code unit for instructing the operation of the electronic device 100 or the processor 130 , and may be written in machine language, which is a language that a computer can understand.
  • a program may be a set of instructions that perform a specific task in a unit of work.
  • the data may be status information in units of bits or bytes that can represent characters, numbers, images, and the like.
  • the memory 150 may store an image frame acquired by the camera 110 , information corresponding to a key identified by the processor 140 , and the like.
  • the memory 150 is accessed by the processor 130 , and reading/writing/modification/deletion/update of instructions, programs, or data may be performed by the processor 130 .
  • the communication unit 160 may transmit/receive various types of data to/from various types of external devices (eg, servers) according to various wired or wireless communication methods.
  • the communication unit 160 may perform direct communication with an external device or may communicate with an external device via (or relay) other external devices through various communication networks.
  • the communication unit 160 may include circuitry according to each communication method, and may further include an antenna or the like in the case of a wireless communication method.
  • the communication unit 160 may receive information from an external device and transmit the received information to the processor 130 . Also, the communication unit 160 may transmit information to an external device under the control of the processor 130 .
  • the communication unit 160 is a Wi-Fi chip using a Wi-Fi (Wi-Fi) communication method, a Bluetooth chip using a Bluetooth communication method, an NFC chip using a near field communication (NFC) communication method, a mobile communication method (eg : Infrared communication using a wireless communication chip and infrared communication method using long-term evolution (LTE), LTE Advance (LTE-A), 5th generation (5G), code division multiple access (CDMA), wideband CDMA (WCDMA)) It may include at least one of the chips. Furthermore, the communication unit 160 may include at least one of an Ethernet module (not shown) and a USB module (not shown) for performing wired communication.
  • Wi-Fi Wi-Fi
  • Bluetooth chip using a Bluetooth communication method
  • NFC chip using a near field communication (NFC) communication method eg : Infrared communication using a wireless communication chip and infrared communication method using long-term evolution (LTE), LTE Advance (LTE-A), 5th generation (5G), code division multiple access
  • the communication unit 160 may include a network interface or a network chip according to a wired/wireless communication method.
  • the communication method of the communication unit 160 is not limited to the above-described example, and may include a communication method that appears newly according to the development of technology.
  • the input interface 170 may receive various user inputs and transmit them to the processor 140 .
  • the input interface 170 may include, for example, at least one of a touch panel (not shown), a pen sensor (not shown), a key (not shown), and a microphone (not shown).
  • the touch panel may use, for example, at least one of a capacitive type, a pressure-sensitive type, an infrared type, and an ultrasonic type, and for this, the touch panel may include a control circuit.
  • the touch panel may further include a tactile layer to provide a tactile response to the user.
  • the pen sensor may be, for example, a part of the touch panel or may include a separate recognition sheet.
  • the key may include, for example, a physical button, an optical key, or a keypad.
  • the microphone may directly receive the user's voice, and digitally convert the user's voice, which is an analog signal, by a digital converter (not shown) to obtain an audio signal.
  • a digital converter (not shown) to obtain an audio signal.
  • Such an input interface 170 may be embedded in the electronic device 100 or implemented as a separate external device (not shown) such as a keyboard, mouse, external microphone, remote control, or the like.
  • 5 to 11 are diagrams for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
  • the processor 130 of the electronic device 100 may control the display 120 to display an image 520 acquired through the camera 110 .
  • the image 520 may include a subject photographed through the camera 110 , where the subject may include a real environment 510 (space or object) located within the angle of view from the viewpoint of the camera 110 .
  • the processor 130 may recognize each of a plurality of pixels included in the image 520 as 3D spatial coordinates including a depth by using the SLAM-based tracking technology of the camera 110 . That is, the processor 130 may recognize the image as a three-dimensional space. Furthermore, the processor 130 may generate a plurality of images 520 sequentially acquired through the camera 110 as a map of a three-dimensional space and store it in the memory 150 .
  • the processor 130 may control the display 120 to display UIs 530 and 550 for selecting the arrangement mode.
  • the mode of the electronic device 100 may be set to the arrangement mode.
  • the processor 130 sets the mode of the electronic device 100 as an additional mode among the arrangement modes as shown in FIG. 6 , A list of a plurality of pre-stored AR objects 631-633 may be displayed on the display 120 .
  • the processor 130 sets the mode of the electronic device 100 to the edit mode among the batch modes, and sets the image according to the user command.
  • the position of one AR object among the AR objects displayed on the image may be changed. Specific details thereof will be described later with reference to FIGS. 12 to 13C .
  • the plurality of AR objects 631 - 633 are AR objects pre-stored in the memory 140 , and may be a rendered image or a text box capable of inputting text.
  • AR objects are objects such as TVs, digital picture frames, sound bars, refrigerators, washing machines, furniture, cars, buildings, trees, etc. that are rendered in 2D or 3D images, text, text, images, photos, videos, etc. It may be in the form of various information such as documents, dashboards, and the like.
  • the processor 130 receives a third AR object as shown in FIG. 7 .
  • the display 120 may be controlled to display 733 on the image 720 .
  • the added AR object 733 may be displayed with a preset size. That is, the perspective for the AR object 733 may be ignored.
  • the AR object 733 displayed on the display 120 may be a text box, and the AR object 733 may include text input according to a user command.
  • the processor 130 may change a point at which the AR object 833 added on the image 820 is located in the addition mode according to a user command (eg, touch drag, etc.).
  • the point at which the AR object 833 is located may be moved along the 3D space axis (x, y, z axis) in the image 820 according to a user command.
  • depth direction depth direction
  • the processor 130 may change the preset size of the AR object 933 added to the image 920 in the addition mode according to a user command (eg, pinch zoom).
  • a user command eg, pinch zoom
  • the size of the AR object 933 displayed on the display 120 may be changed according to a user command.
  • the processor 130 when a user command (eg, a touch longer than a preset time) for the AR object 1033 added to the image 1020 is received in the addition mode, the processor 130 receives the AR object 1033 . ), the display 120 may be controlled to display a UI 1035 for allocating properties and a UI 1037 for deleting the AR object 1033 .
  • the processor 130 sets the property for the AR object 1033 to a fixed size property and a variable size property.
  • a UI for selecting one of the properties may be controlled to be displayed on the display 120 .
  • the attribute assigned to the AR object may be changed according to a user command.
  • the processor 130 may remove (or delete) the AR object 1033 displayed on the image 1020 . .
  • the processor 130 sets the AR objects 733 , 833 , 933 , 1033 , 1133 added according to a user command to a set state (size, location, properties, etc.) in the normal mode.
  • the first UI (740, 840, 940, 1040, 1140) that saves the state set to be displayed and the AR object (733, 833, 933, 1033, 1133) added according to the user's command can be canceled from being displayed in normal mode.
  • the display 120 may be controlled to display the second UIs 770 , 870 , 970 , 1070 , and 1170 .
  • the processor 130 enters the mode of the electronic device 100 into the normal mode according to a user command to select the first UI 740 , 840 , 940 , 1040 , 1140 , and an AR object (
  • the display 120 may be controlled to display 733 , 833 , 933 , 1033 , and 1133 according to a set state.
  • the processor 130 enters the mode of the electronic device 100 into the normal mode according to a user command for selecting the second UI 770 , 870 , 970 , 1070 , and 1170 , and the AR object 733 in the normal mode , 833 , 933 , 1033 , 1133 may be removed (or deleted) from the AR objects 733 , 833 , 933 , 1033 , and 1133 so that they are not displayed.
  • 12 to 13C are diagrams for explaining an arrangement mode according to an embodiment of the present disclosure.
  • the processor 130 of the electronic device 100 may control the display 120 to display UIs 1230 and 1250 for selecting a layout mode.
  • the processor 130 may set (or enter) the mode of the electronic device 100 as an additional mode from among the batch modes, and a description thereof is shown in FIG. 5 . It has been described above with reference to FIGS.
  • the processor 130 may set (or enter) the mode of the electronic device 100 from the arrangement mode to the edit mode. In this case, the processor 130 may change the arrangement of the AR object 1233 among the image 1220 and the AR object 1233 displayed on the display 120 according to a user command.
  • points located on the images 1320A and 1320B may be changed according to a user command of the AR objects 1333A and 1333B.
  • the processor 130 displays the AR on the image 1320A.
  • the preset size of the AR object 1333A may be decreased so that the displayed size of the object 1333A is maintained.
  • the processor 130 displays the image 1320B on the image 1320B.
  • the preset size of the AR object 1333B may be increased so that the size at which the AR object 1333B is displayed is maintained.
  • the processor 130 determines the size at which the AR objects 1333A and 1333B are displayed on the display 120 and the AR object 1233 is displayed on the display 120 of FIG. 12 . You can control it to stay at the displayed size. That is, the size of the AR objects 1333A and 1333B displayed on the display 120 may be maintained as the size of the AR object 1233 displayed on the display 120 when the edit mode is set.
  • the effect of changing the size by perspective may be offset.
  • 14 to 15B are diagrams for explaining a normal mode according to an embodiment of the present disclosure.
  • the processor 130 of the electronic device 100 obtains an image 1420 and AR objects 1431 and 1432 obtained through the camera 110 .
  • the display 120 may be controlled to display .
  • the AR objects 1431 and 1432 may be arranged on the image 1420 through the above-described arrangement mode.
  • the electronic device 100 in the state shown in FIG. 14 is moved to a point where the depth is changed as shown in FIGS. 15A and 15B .
  • the first AR objects 1531A and 1531B are assigned with a variable size attribute
  • the second AR objects 1532A and 1532B are assigned with a fixed size attribute.
  • the processor 130 may determine a property assigned to each of the first and second AR objects 1531A and 1532A. have.
  • the processor 130 increases the size at which the first AR object 1531A is displayed on the image 1520A as the depth decreases with respect to the first AR object 1531A to which the property whose size is changed is assigned.
  • the first AR object 1531A may be adjusted to
  • the processor 130 is configured to maintain the size at which the second AR object 1532A is displayed on the image 1520A.
  • the second AR object 1532A may be adjusted to reduce a preset size of the second AR object 1532A.
  • the processor 130 determines a property assigned to each of the first and second AR objects 1531B and 1532B.
  • the processor 130 decreases the size of the first AR object 1531B displayed on the image 1520B as the depth increases with respect to the first AR object 1531B to which the property whose size is changed is assigned. can be adjusted to make it
  • the processor 130 controls the size of the second AR object 1532B to which the property to be fixed in size is assigned so that the size at which the second AR object 1532B is displayed on the image 1520B is maintained. It may be adjusted to increase the preset size of the second AR object 1532B.
  • perspective is applied to the first AR object 1531A, and perspective is ignored to the second AR object 1532A according to the attribute assigned to the AR object in the normal mode.
  • 16 is a diagram for describing a flowchart according to an embodiment of the present disclosure.
  • the control method of the electronic device 100 includes an image acquired through the camera 110 and displaying an AR object on the image ( S1610 ), the electronic device When the depth of the point where the AR object is located on the image is changed in the state in which the mode of (100) is the normal mode, adjusting the size of the AR object is displayed based on the changed depth (S1620) and the former In a state in which the mode of the device 100 is the arrangement mode, if the depth of the point where the AR object is located on the image is changed, controlling to maintain the size at which the AR object is displayed ( S1630 ) is included.
  • the AR object may be displayed on the image and the image acquired through the camera 110 first (S1610).
  • the AR object may be displayed on the image and the image acquired through the camera 110 based on the size of the AR object.
  • the size of the AR object is set to a size displayed at the standard depth for each AR object as a default, and may be changed according to the mode.
  • the size may collectively refer to various concepts such as area, volume, diagonal length, horizontal and vertical length, radius, and diameter.
  • the size at which the AR object is displayed may be adjusted based on the changed depth ( S1620).
  • the depth of the point where the AR object is positioned may be changed as the point where the camera 110 is positioned is moved according to the depth direction.
  • the size at which the AR object is displayed may be adjusted based on the depth of the point where the AR object is located and the property assigned to the AR object.
  • the size at which the AR object is displayed is maintained, and the size of the property assigned to the AR object is changed.
  • the size at which the AR object is displayed may be adjusted based on the changed depth.
  • the size at which the AR object is displayed is maintained. can be controlled as much as possible.
  • the AR object in the normal mode, if the property assigned to the AR object is a property whose size changes, the AR object is adjusted so that the size decreases when the depth of the point where the AR object is located on the image increases.
  • the displayed size may be adjusted, and the displayed size of the AR object may be adjusted so that the size increases when the depth of the point where the AR object is located decreases.
  • control may be performed to maintain the size at which the AR object is displayed ( S1630 ).
  • the depth of the point at which the AR object is positioned may be changed as the point at which the camera 110 is positioned or the point at which the AR object is positioned on the image is moved according to the depth direction.
  • the size of the AR object may be changed to maintain the size at which the AR object is displayed.
  • the controlling may include increasing the size of the AR object so as to maintain the displayed size of the AR object when the depth of the point where the AR object is located increases in the arrangement mode, and increasing the size of the point where the AR object is located. When the depth decreases, the size of the AR object can be reduced to maintain the size at which the AR object is displayed.
  • Various embodiments of the present disclosure may be implemented as software including instructions stored in a machine-readable storage medium readable by a machine (eg, a computer).
  • the device calls the stored instructions from the storage medium.
  • an electronic device eg, the electronic device 100
  • the processor directly or the The function described in the instruction may be performed using other components under the control of the processor.
  • the instruction may include code generated or executed by a compiler or an interpreter.
  • a machine-readable storage medium is a non-transitory It may be provided in the form of a (non-transitory) storage medium, where 'non-transitory' means that the storage medium does not include a signal and is tangible, but data is semi-permanent or temporary in the storage medium It does not distinguish that it is stored as
  • the method according to various embodiments may be provided by being included in a computer program product.
  • Computer program products may be traded between sellers and buyers as merchandise.
  • the computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play StoreTM).
  • an application store eg, Play StoreTM
  • at least a part of the computer program product may be temporarily stored or temporarily created in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • Each of the components may be composed of a singular or a plurality of entities, and some sub-components of the above-described sub-components may be omitted, or other sub-components may be various. It may be further included in the embodiment. Alternatively or additionally, some components (eg, a module or a program) may be integrated into a single entity to perform the same or similar functions performed by each of the components before being integrated. According to various embodiments, operations performed by a module, program, or other component may be sequentially, parallel, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added. can

Abstract

The present disclosure provides an electronic device and a method for controlling same. The electronic device of the present disclosure comprises a camera, a display, and a processor which: controls the display to display an image obtained through the camera and display an AR object on the image; when the depth of a point at which the AR object is located on the image is changed in a state where the electronic device is in a normal mode, adjusts the size of the AR object displayed on the display, on the basis of the depth that is changed; and when the depth of a point at which the AR object is located on the image is changed in a state where the electronic device is in a batch mode, performs control to maintain the size of the AR object displayed on the display.

Description

전자 장치 및 그의 제어 방법Electronic device and its control method
본 개시는 전자 장치 및 그의 제어 방법에 관한 것으로, 보다 상세하게는 AR 객체를 표시하는 전자 장치 및 그의 제어 방법에 관한 것이다.The present disclosure relates to an electronic device and a control method thereof, and more particularly, to an electronic device displaying an AR object and a control method thereof.
전자 기술이 발달함에 따라, 증강 현실(Augmented Reality, 이하 AR)을 이용한 기술들이 사용자들에게 보편화되고 있다. As electronic technology develops, technologies using augmented reality (AR) are becoming common among users.
AR은 실제 환경의 물리적 공간을 촬영한 이미지에 가상의 객체(또는 정보)를 결합하여 함께 표시하는 기술이다. 디스플레이에 표시된 가상의 객체를 통해, 마치 현실의 공간에 가상의 객체가 함께 존재하는 것처럼 나타낼 수 있고, 또한 현실의 실존하는 객체와 관련된 유용한 정보를 사용자에게 제공할 수 있다.AR is a technology that combines and displays a virtual object (or information) in an image taken of the physical space of the real environment. Through the virtual object displayed on the display, it may be displayed as if the virtual object exists together in the real space, and useful information related to the real object may be provided to the user.
한편, 사용자는 현실의 공간에서 사용자와 멀리 위치한 객체의 크기를 작게 인식하고, 사용자와 가까이 위치한 객체의 크기를 크게 인식함으로써, 객체에 대한 원근감(또는 거리감)을 인식할 수 있다. On the other hand, the user may recognize the perspective (or distance) of the object by recognizing the small size of the object located far from the user in the real space and recognizing the large size of the object located close to the user.
또한, AR 공간(즉, 현실과 접목한 가상의 공간)은 현실의 공간과 마찬가지로 3차원으로 이루어져 있다는 점에서, AR 공간에 배치된 가상의 객체는 사용자(또는 전자 장치)와의 거리에 따라 크기가 변경된다.In addition, since the AR space (ie, a virtual space grafted with reality) is composed of three dimensions like the real space, the size of the virtual object placed in the AR space varies according to the distance from the user (or electronic device). is changed
다만, AR 공간에서 사용자와 가상의 객체 간 거리가 너무 가까운 경우 가상의 객체의 크기가 매우 커지게 되고, 사용자와 가상의 객체 간 거리가 너무 멀어진 경우 가상의 객체의 크기가 매우 작아지게 되어, 사용자가 가상의 객체를 인식하거나 가상의 객체를 제어(또는 조작)하기에 어려움이 따른다는 문제가 있었다.However, when the distance between the user and the virtual object in the AR space is too close, the size of the virtual object becomes very large, and when the distance between the user and the virtual object is too far, the size of the virtual object becomes very small, There was a problem that it was difficult to recognize a virtual object or to control (or manipulate) the virtual object.
본 개시는 상술한 필요성에 의해 안출된 것으로, 본 개시의 목적은 AR 객체의 크기를 조절하는 전자 장치 및 그의 제어 방법을 제공하기 위함이다.The present disclosure has been made in response to the above-mentioned necessity, and an object of the present disclosure is to provide an electronic device for adjusting the size of an AR object and a method for controlling the same.
상기 목적을 달성하기 위한, 본 개시의 일 실시 예에 따른 전자 장치는, 카메라, 디스플레이 및 카메라를 통해 획득된 이미지 및 이미지 상에 AR 객체를 표시하도록 디스플레이를 제어하고, 전자 장치의 모드가 일반 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스(depth)가 변경되면, 변경되는 뎁스에 기초하여 디스플레이에 AR 객체가 표시되는 크기를 조정하고, 전자 장치의 모드가 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, 디스플레이에 AR 객체가 표시되는 크기를 유지하도록 제어하는 프로세서를 포함한다.In order to achieve the above object, an electronic device according to an embodiment of the present disclosure controls the display to display an AR object on a camera, a display, and an image acquired through the camera, and the mode of the electronic device is a normal mode When the depth of the point at which the AR object is located on the image is changed in the in state, the size of the AR object displayed on the display is adjusted based on the changed depth, and in a state that the mode of the electronic device is the arrangement mode, and a processor that controls to maintain the size at which the AR object is displayed on the display when the depth of the point where the AR object is located on the image is changed.
여기에서, AR 객체가 위치하는 지점의 뎁스는, 뎁스 방향에 따라 카메라가 위치하는 지점 또는 이미지 상에서 AR 객체가 위치하는 지점이 이동됨에 따라 변경될 수 있다.Here, the depth of the point at which the AR object is located may be changed as the point at which the camera is located or the point at which the AR object is located on the image moves according to the depth direction.
한편, 프로세서는 AR 객체의 크기에 기초하여 이미지 및 이미지 상에 AR 객체를 표시하도록 디스플레이를 제어하고, 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, 디스플레이에 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 변경할 수 있다.On the other hand, the processor controls the display to display the AR object on the image and the image based on the size of the AR object, and in the arrangement mode, when the depth of the point where the AR object is located on the image is changed, the AR object is displayed on the display. You can change the size of the AR object so that it retains its displayed size.
여기에서, 프로세서는 전자 장치의 모드가 배치 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스가 증가하면 디스플레이에 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 증가시키고, AR 객체가 위치하는 지점의 뎁스가 감소하면 디스플레이에 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 감소시킬 수 있다.Here, the processor increases the size of the AR object to maintain the size at which the AR object is displayed on the display when the depth of the point where the AR object is located increases while the mode of the electronic device is the arrangement mode, and the AR object is positioned When the depth of the point of interest decreases, the size of the AR object may be reduced to maintain the size at which the AR object is displayed on the display.
한편, 프로세서는 AR 객체의 크기에 기초하여 이미지 및 이미지 상에 AR 객체를 표시하도록 디스플레이를 제어하고, 전자 장치의 모드가 일반 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스 및 AR 객체에 할당된 속성에 기초하여, 디스플레이에 AR 객체가 표시되는 크기를 조정할 수 있다.On the other hand, the processor controls the display to display the AR object on the image and the image based on the size of the AR object, and in a state where the mode of the electronic device is the normal mode, allocates the depth of the point where the AR object is located and the AR object Based on the specified properties, the size of the AR object displayed on the display can be adjusted.
여기에서, 프로세서는 전자 장치의 모드가 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우 디스플레이에 AR 객체가 표시되는 크기가 유지되도록 제어하고, AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우 변경되는 뎁스에 기초하여 디스플레이에 AR 객체가 표시되는 크기가 변경되도록 조정할 수 있다.Here, the processor controls the size at which the AR object is displayed on the display to be maintained when the property assigned to the AR object is a property in which the size is fixed while the mode of the electronic device is the normal mode, and the property assigned to the AR object When this size is a variable property, the size of the AR object displayed on the display may be adjusted based on the changed depth.
여기에서, 프로세서는 전자 장치의 모드가 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우, 이미지 상에서 AR 객체의 뎁스가 변경되면 디스플레이에 AR 객체가 표시되는 크기가 유지되도록 제어하고, 전자 장치의 모드가 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 증가하면 크기가 감소하도록 디스플레이에 AR 객체가 표시되는 크기를 조정하고, AR 객체가 위치하는 지점의 뎁스가 감소하면 크기가 증가하도록 디스플레이에 AR 객체가 표시되는 크기를 조정할 수 있다.Here, the processor maintains the size at which the AR object is displayed on the display when the depth of the AR object on the image is changed when the property assigned to the AR object is a fixed size while the mode of the electronic device is the normal mode. In a state where the mode of the electronic device is in the normal mode, if the property assigned to the AR object is a property whose size changes, the AR is displayed on the display so that the size decreases when the depth of the point where the AR object is located on the image increases. The size at which the object is displayed may be adjusted, and the size at which the AR object is displayed on the display may be adjusted so that the size increases when the depth of the point where the AR object is located decreases.
본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 카메라를 통해 획득된 이미지 및 이미지 상에 AR 객체를 표시하는 단계, 전자 장치의 모드가 일반 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스(depth)가 변경되면, 변경되는 뎁스에 기초하여 AR 객체가 표시되는 크기를 조정하는 단계 및 전자 장치의 모드가 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, AR 객체가 표시되는 크기를 유지하도록 제어하는 단계를 포함한다.A method of controlling an electronic device according to an embodiment of the present disclosure includes displaying an image acquired through a camera and an AR object on the image, and in a state in which the mode of the electronic device is a normal mode, the AR object is positioned on the image If the depth of the point is changed, adjusting the size at which the AR object is displayed based on the changed depth, and in a state that the mode of the electronic device is the arrangement mode, the depth of the point where the AR object is located on the image is changed and controlling the AR object to maintain the displayed size.
여기에서, AR 객체가 위치하는 지점의 뎁스는 뎁스 방향에 따라 카메라가 위치하는 지점 또는 이미지 상에서 AR 객체가 위치하는 지점이 이동됨에 따라 변경될 수 있다.Here, the depth of the point at which the AR object is located may be changed as the point at which the camera is located or the point at which the AR object is located on the image moves according to the depth direction.
한편, 표시하는 단계는 AR 객체의 크기에 기초하여 이미지 및 이미지 상에 AR 객체를 표시하고, 제어하는 단계는 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 변경할 수 있다.Meanwhile, in the displaying step, the AR object is displayed on the image and on the image based on the size of the AR object, and in the controlling step in the arrangement mode, when the depth of the point where the AR object is located on the image is changed, the AR object You can change the size of the AR object so that it retains its displayed size.
여기에서, 제어하는 단계는 배치 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스가 증가하면 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 증가시키는 단계 및 배치 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스가 감소하면 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 감소시키는 단계를 포함할 수 있다.Here, the controlling includes increasing the size of the AR object to maintain the displayed size when the depth of the point where the AR object is located increases in the arrangement mode, and in the arrangement mode, the AR object The method may include reducing the size of the AR object to maintain the size at which the AR object is displayed when the depth of the point at which is located is decreased.
한편, 표시하는 단계는 AR 객체의 크기에 기초하여 이미지 및 이미지 상에 AR 객체를 표시하는, 조정하는 단계는 일반 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스 및 AR 객체에 할당된 속성에 기초하여, AR 객체가 표시되는 크기를 조정할 수 있다.On the other hand, the displaying step displays the image and the AR object on the image based on the size of the AR object, and the adjusting step is in the normal mode, in the depth of the point where the AR object is located and the properties assigned to the AR object. Based on this, the size at which the AR object is displayed can be adjusted.
여기에서, 조정하는 단계는 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우 AR 객체가 표시되는 크기가 유지되도록 제어하는 단계 및 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우 변경되는 뎁스에 기초하여 AR 객체가 표시되는 크기가 변경되도록 조정하는 단계를 포함할 수 있다.Here, the adjusting step is a step of controlling so that the displayed size of the AR object is maintained when the property assigned to the AR object is a property with a fixed size in the normal mode, and assigning the AR object to the AR object in the normal mode When the changed property is a property whose size is changed, the method may include adjusting the displayed size of the AR object to be changed based on the changed depth.
여기에서, 조정하는 단계는 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우, 이미지 상에서 AR 객체의 뎁스가 변경되면 AR 객체가 표시되는 크기가 유지되도록 제어하는 단계 및 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 증가하면 크기가 감소하도록 AR 객체가 표시되는 크기를 조정하고, AR 객체가 위치하는 지점의 뎁스가 감소하면 크기가 증가하도록 AR 객체가 표시되는 크기를 조정할 수 있다.Here, the adjusting includes controlling the size at which the AR object is displayed to be maintained when the depth of the AR object is changed on the image when the property assigned to the AR object is a property in which the size is fixed in the normal mode; In the normal mode, if the property assigned to the AR object is a property that changes in size, adjust the displayed size of the AR object so that the size decreases if the depth of the point where the AR object is located on the image increases, If the depth of the point where is is decreased, the size of the AR object displayed can be adjusted so that the size increases.
이상과 같은 본 개시의 다양한 실시 예에 따르면, AR 객체의 크기를 조절하는 전자 장치 및 그의 제어 방법을 제공할 수 있다.According to various embodiments of the present disclosure as described above, it is possible to provide an electronic device for adjusting the size of an AR object and a method for controlling the same.
또한, AR 객체의 시인성 및 AR 객체의 조작 편의성을 향상시킬 수 있다.In addition, the visibility of the AR object and the operation convenience of the AR object may be improved.
도 1은 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.1 is a diagram for describing an electronic device according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 부가적인 구성을 설명하기 위한 블록도이다.3 is a block diagram illustrating an additional configuration of an electronic device according to an embodiment of the present disclosure.
도 4a는 본 개시의 일 실시 예에 따른 AR 객체의 크기를 설명하기 위한 도면이다. 4A is a diagram for explaining the size of an AR object according to an embodiment of the present disclosure.
도 4b는 본 개시의 일 실시 예에 따른 AR 객체의 크기를 설명하기 위한 도면이다. 4B is a diagram for explaining the size of an AR object according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시 예에 따른 AR 객체를 이미지에 추가하는 방법을 설명하기 위한 도면이다. 5 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시 예에 따른 AR 객체를 이미지에 추가하는 방법을 설명하기 위한 도면이다. 6 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
도 7은 본 개시의 일 실시 예에 따른 AR 객체를 이미지에 추가하는 방법을 설명하기 위한 도면이다. 7 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시 예에 따른 AR 객체를 이미지에 추가하는 방법을 설명하기 위한 도면이다. 8 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시 예에 따른 AR 객체를 이미지에 추가하는 방법을 설명하기 위한 도면이다. 9 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
도 10은 본 개시의 일 실시 예에 따른 AR 객체를 이미지에 추가하는 방법을 설명하기 위한 도면이다. 10 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
도 11은 본 개시의 일 실시 예에 따른 AR 객체를 이미지에 추가하는 방법을 설명하기 위한 도면이다. 11 is a diagram for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
도 12는 본 개시의 일 실시 예에 따른 배치 모드를 설명하기 위한 도면이다. 12 is a view for explaining an arrangement mode according to an embodiment of the present disclosure.
도 13a는 본 개시의 일 실시 예에 따른 배치 모드를 설명하기 위한 도면이다. 13A is a diagram for describing an arrangement mode according to an embodiment of the present disclosure.
도 13b는 본 개시의 일 실시 예에 따른 배치 모드를 설명하기 위한 도면이다. 13B is a diagram for describing an arrangement mode according to an embodiment of the present disclosure.
도 13c는 본 개시의 일 실시 예에 따른 배치 모드를 설명하기 위한 도면이다. 13C is a diagram for describing an arrangement mode according to an embodiment of the present disclosure.
도 14는 본 개시의 일 실시 예에 따른 일반 모드를 설명하기 위한 도면이다.14 is a diagram for explaining a normal mode according to an embodiment of the present disclosure.
도 15a는 본 개시의 일 실시 예에 따른 일반 모드를 설명하기 위한 도면이다.15A is a diagram for describing a normal mode according to an embodiment of the present disclosure.
도 15b는 본 개시의 일 실시 예에 따른 일반 모드를 설명하기 위한 도면이다.15B is a diagram for explaining a normal mode according to an embodiment of the present disclosure.
도 16은 본 개시의 일 실시 예에 따른 흐름도를 설명하기 위한 도면이다.16 is a diagram for describing a flowchart according to an embodiment of the present disclosure.
--
본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. 덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.In describing the present disclosure, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present disclosure, a detailed description thereof will be omitted. In addition, the following examples may be modified in various other forms, and the scope of the technical spirit of the present disclosure is not limited to the following examples. Rather, these embodiments are provided to more fully and complete the present disclosure, and to fully convey the technical spirit of the present disclosure to those skilled in the art.
본 개시에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.It is to be understood that the techniques described in the present disclosure are not intended to be limited to specific embodiments, and include various modifications, equivalents, and/or alternatives of the embodiments of the present disclosure. In connection with the description of the drawings, like reference numerals may be used for like components.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 상기 구성요소들을 한정하지 않는다. As used in the present disclosure, expressions such as "first," "second," "first," or "second," may modify various elements, regardless of order and/or importance, and refer to one element. It is used only to distinguish it from other components, and does not limit the above components.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this disclosure, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, "A or B," "at least one of A and B," or "at least one of A or B" means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
본 개시에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this disclosure, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It is to be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component) When referring to "connected to", it will be understood that the certain element may be directly connected to the other element or may be connected through another element (eg, a third element). On the other hand, when it is said that a component (eg, a first component) is "directly connected" or "directly connected" to another component (eg, a second component), the component and the It may be understood that other components (eg, a third component) do not exist between other components.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 상기 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 상기 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression "configured to (or configured to)" as used in this disclosure depends on the context, for example, "suitable for," "having the capacity to" ," "designed to," "adapted to," "made to," or "capable of." The term “configured (or configured to)” may not necessarily mean only “specifically designed to” in hardware. Instead, in some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase “a processor configured (or configured to perform) A, B, and C” refers to a dedicated processor (eg, an embedded processor) for performing the above operations, or by executing one or more software programs stored in a memory device. , may mean a generic-purpose processor (eg, a CPU or an application processor) capable of performing the above operations.
도 1은 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.1 is a diagram for describing an electronic device according to an embodiment of the present disclosure.
도 1에 도시된 바와 같이, 전자 장치(100)는 증강 현실(Augmented Reality; AR)을 제공할 수 있는 장치이며, 스마트폰 등으로 구현될 수 있다. 여기서, 증강 현실은 현실의 환경(공간 또는 사물)을 기반으로 하는 이미지에 가상의 객체(이하, 증강 현실 객체; AR 객체)를 결합하는 것을 지칭할 수 있다. As shown in FIG. 1 , the electronic device 100 is a device capable of providing augmented reality (AR), and may be implemented as a smart phone or the like. Here, augmented reality may refer to combining a virtual object (hereinafter, augmented reality object; AR object) with an image based on a real environment (space or object).
전자 장치(100)는 이미지 및 이미지 상에 AR 객체를 표시할 수 있다. 즉, 전자 장치(100)는 이미지와 AR 객체를 결합하여, 이미지 상에 AR 객체를 중첩하여 표시할 수 있다. The electronic device 100 may display an image and an AR object on the image. That is, the electronic device 100 may combine an image and an AR object, and display the AR object by superimposing it on the image.
여기서, 이미지는 촬영된 피사체를 포함할 수 있다. 여기서, 피사체는 촬영 영역 내에 위치하는 현실의 환경(10)을 지칭한다. 또한, 이미지는 동시적 위치추정 및 지도작성(Simultaneous localization and mapping: SLAM)을 통해 3차원 공간으로 인식될 수 있다. 또한, 이미지는 기설정된 프레임 레이트 단위로 촬영되는 복수의 이미지 프레임일 수 있다.Here, the image may include a photographed subject. Here, the subject refers to the real environment 10 located in the photographing area. In addition, the image can be recognized as a three-dimensional space through simultaneous localization and mapping (SLAM). Also, the image may be a plurality of image frames photographed in units of a preset frame rate.
한편, AR 객체는 실존하는 사물이 2차원 또는 3차원으로 렌더링된 이미지일 수 있다. 예를 들어, AR 객체는 TV, 디지털 액자, 사운드 바, 냉장고, 세탁기, 가구, 자동차, 건물, 나무 등과 같은 사물이 2차원 또는 3차원으로 렌더링 된 이미지와 같은 형태로 구현될 수 있다. 다만 이는 일 실시 예일 뿐이며, AR 객체는 이에 한정되지 아니하고 텍스트, 문자, 이미지, 사진, 동영상, 문서, 대시보드(dashboard) 등과 같은 다양한 정보의 형태로 구현될 수도 있다. 또한, AR 객체는 반투명한 상태로 표시될 수도 있다.Meanwhile, the AR object may be an image in which an existing object is rendered in 2D or 3D. For example, the AR object may be implemented in the same form as a 2D or 3D rendered image of objects such as a TV, a digital picture frame, a sound bar, a refrigerator, a washing machine, furniture, a car, a building, and a tree. However, this is only an embodiment, and the AR object is not limited thereto, and may be implemented in the form of various information such as text, text, image, photo, video, document, dashboard, and the like. Also, the AR object may be displayed in a translucent state.
또한, AR 객체는 3차원 공간으로 인식되는 이미지 상의 특정한 지점에 위치할 수 있다. 이때, 이미지 상의 특정한 지점은 3차원 공간 좌표로 나타낼 수 있으며, 예를 들어 3차원 공간 좌표(x, y, z)에서 x축은 가로 방향, y축은 세로 방향, z축은 뎁스(depth) 방향을 나타낼 수 있다. Also, the AR object may be located at a specific point on an image recognized as a 3D space. In this case, a specific point on the image may be represented by three-dimensional space coordinates. For example, in three-dimensional space coordinates (x, y, z), the x-axis represents the horizontal direction, the y-axis represents the vertical direction, and the z-axis represents the depth direction. can
또한, AR 객체가 위치하는 이미지 상의 지점은 이미지에 포함된 피사체(예: 바닥면, 평면, 벽면, 사물 등)가 위치한 지점과 상대적인 위치 관계를 가질 수 있다. 예를 들어, 이미지가 촬영된 시점(또는 카메라의 시점)(Point of View; PoV)이 변경(또는 이동)되는 경우, 피사체가 위치하는 지점이 변경(또는 이동)되는 방향과 동일한 방향으로 AR 객체가 위치하는 지점이 변경(또는 이동)될 수 있다. 여기서, 뎁스는 z축(뎁스 방향)에 따라 이미지 상의 3차원 공간에서 전자 장치(100)(또는 카메라)가 위치한 지점 및 AR 객체가 위치한 지점 사이의 거리를 나타낼 수 있다.Also, a point on the image where the AR object is located may have a relative positional relationship with a point where a subject (eg, a floor, a plane, a wall, an object, etc.) included in the image is located. For example, if the point of view (PoV) at which the image was taken (or the point of view of the camera) is changed (or moved), the AR object in the same direction as the direction in which the point where the subject is located is changed (or moved) The point where is located may be changed (or moved). Here, the depth may indicate a distance between a point where the electronic device 100 (or camera) is positioned and a point where the AR object is positioned in a three-dimensional space on an image along the z-axis (depth direction).
한편, AR 객체는 각 AR 객체마다 AR 객체의 크기(디폴트 크기)가 기설정될 수 있다. 이때, AR 객체의 크기는 표준 뎁스에서 표시되는 크기를 나타낼 수 있으며, 크기는 넓이, 부피, 대각선 길이, 가로 및 세로 길이, 반지름, 지름 등 다양한 개념을 총칭할 수 있다. 여기서, 표준 뎁스는 AR 객체가 기설정된 크기로 표시되도록 기준이 되는 거리(예: z축상 거리)를 나타낼 수 있다. 예를 들어, 표준 뎁스는 1m의 거리로 기설정될 수 있는데, 이는 일 실시 예를 나타낸 것이고 다양한 거리로 변형될 수 있음은 물론이다. 한편, AR 객체의 크기는 사용자 명령에 따라 변경될 수도 있다.Meanwhile, for the AR object, the size (default size) of the AR object may be preset for each AR object. In this case, the size of the AR object may indicate a size displayed in the standard depth, and the size may collectively refer to various concepts such as area, volume, diagonal length, horizontal and vertical length, radius, and diameter. Here, the standard depth may indicate a distance (eg, a distance on a z-axis) that is a reference so that the AR object is displayed in a preset size. For example, the standard depth may be preset to a distance of 1 m, which is an example and may be changed to various distances. Meanwhile, the size of the AR object may be changed according to a user command.
전자 장치(100)는 이미지 상에 위치한 AR 객체가 위치하는 지점의 뎁스가 기설정된 표준 뎁스인 경우, AR 객체를 기설정된 크기로 표시할 수 있다. 예를 들어, 100인치 TV와 같은 AR 객체의 크기가 가로 220 x 세로 125로 기설정된 것으로 가정하면, 전자 장치(100)는 이미지 상에 위치한 AR 객체(100인치 TV)의 뎁스가 표준 뎁스인 1m일 때 AR 객체를 기설정된 크기 가로 220 x 세로 125로 표시할 수 있다. When the depth of the point where the AR object located on the image is located is a preset standard depth, the electronic device 100 may display the AR object in a preset size. For example, assuming that the size of an AR object, such as a 100-inch TV, is preset to be 220 x 125 in height, the electronic device 100 sets the depth of the AR object (100-inch TV) located on the image to 1 m, which is the standard depth. When , the AR object may be displayed in a preset size of 220 x 125 in height.
본 개시의 일 실시 예에 따른 전자 장치(100)는 이미지 상에서 AR 객체가 위치한 지점의 뎁스가 변경되는 경우에, 전자 장치의 모드에 따라 AR 객체가 표시되는 크기를 조정하거나 유지할 수 있다. When the depth of the point where the AR object is located on the image is changed, the electronic device 100 according to an embodiment of the present disclosure may adjust or maintain the displayed size of the AR object according to the mode of the electronic device.
여기서, 모드는 일반 모드 및 배치 모드 중에서 하나일 수 있다. 예를 들어, 일반 모드는 AR 객체가 배치된 지점의 뎁스(전자 장치(또는 카메라) 및 AR 객체 간 거리)에 따라 AR 객체가 표시되는 크기가 변경될 수 있는 모드이다. 또한, 배치 모드는 사용자 명령에 따라 이미지 내에서 AR 객체가 위치하는 지점을 변경할 수 있으며, AR 객체가 배치된 지점의 뎁스와 무관하게 AR 객체가 표시되는 크기가 유지될 수 있는 모드이다. 즉, 일반 모드는 AR 객체에 대한 원근법이 적용되는 모드이며, 배치 모드는 AR 객체에 대한 원근법이 적용되지 아니하는 모드이다.Here, the mode may be one of a normal mode and a batch mode. For example, the normal mode is a mode in which the size at which the AR object is displayed may be changed according to the depth of the point where the AR object is disposed (the distance between the electronic device (or camera) and the AR object). In addition, the arrangement mode is a mode in which a point where an AR object is located in an image can be changed according to a user command, and the size at which the AR object is displayed can be maintained regardless of the depth of the point where the AR object is placed. That is, the normal mode is a mode to which the perspective for the AR object is applied, and the arrangement mode is a mode to which the perspective to the AR object is not applied.
이상과 같은 본 개시의 다양한 실시 예에 따르면, AR 객체의 크기를 조절하는 전자 장치 및 그의 제어 방법을 제공할 수 있다. 또한, AR 객체의 시인성 및 AR 객체의 조작 편의성을 향상시킬 수 있다.According to various embodiments of the present disclosure as described above, it is possible to provide an electronic device for adjusting the size of an AR object and a method for controlling the same. In addition, the visibility of the AR object and the operation convenience of the AR object may be improved.
한편, 도 1에서는 전자 장치(100)를 스마트폰으로 도시하였으나 이는 일 예일 뿐이고, 전자 장치(100)는 사용자가 착용할 수 있는 웨어러블 장치로 구현될 수 있다. 여기서, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형, 또는 생체 이식형 회로 등과 같이 다양한 타입의 장치로 구현될 수 있다. 또한, 전자 장치(100)는 태블릿 PC, 스피커, 이동 전화기, 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 워크스테이션, 서버, PDA, PMP(portable multimediaplayer), MP3 플레이어, 의료기기, 카메라, 텔레비전, DVD(digital video disk) 플레이어, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 전자 액자 또는 웨어러블 장치 등과 같은 장치로 구현될 수 있다. 또한, 전자 장치(100)는 경우에 따라 투명 디스플레이를 구비하거나 플렉서블 디스플레이를 구비한 장치로 구현되는 것 또한 가능하다.Meanwhile, although the electronic device 100 is illustrated as a smartphone in FIG. 1 , this is only an example, and the electronic device 100 may be implemented as a wearable device that a user can wear. Here, the wearable device may be an accessory type (eg, watch, ring, bracelet, anklet, necklace, eyeglasses, contact lens, or head-mounted-device (HMD)), a textile or an integrated garment (eg, electronic garment). ), body-attached, or bioimplantable circuit, etc. In addition, the electronic device 100 may include a tablet PC, a speaker, a mobile phone, a telephone, an e-book reader, a desktop PC, a laptop PC, etc. , workstation, server, PDA, PMP (portable multimedia player), MP3 player, medical device, camera, television, DVD (digital video disk) player, refrigerator, air conditioner, vacuum cleaner, oven, microwave oven, washing machine, air purifier, set-top box , home automation control panel, security control panel, media box (eg Samsung HomeSyncTM, Apple TVTM, or Google TVTM), game console (eg XboxTM, PlayStationTM), electronic dictionary, electronic key, camcorder, electronic picture frame or wearable It may be implemented as a device, etc. Also, the electronic device 100 may be implemented as a device having a transparent display or a flexible display in some cases.
또한, 본 개시에서 설명하는 증강 현실(AR)이라는 용어는 증강 현실 분야에 국한되지 아니하고, 가상 현실(Virtual Reality; VR), 혼합 현실(Mixed Reality; MR), 확장 현실(eXtended Reality; XR) 등에 대해서도 적용될 수 있다.In addition, the term augmented reality (AR) described in the present disclosure is not limited to the field of augmented reality, virtual reality (VR), mixed reality (MR), extended reality (eXtended Reality; XR), etc. can also be applied.
이하에서는, 도면을 참조하여 증강 현실을 제공하는 전자 장치 및 그 제어 방법에 대해 보다 상세히 설명하기로 한다.Hereinafter, an electronic device providing augmented reality and a control method thereof will be described in more detail with reference to the drawings.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이고, 도 3은 본 개시의 일 실시 예에 따른 전자 장치의 부가적인 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure, and FIG. 3 is a block diagram illustrating an additional configuration of an electronic device according to an embodiment of the present disclosure.
도 2를 참조하면, 본 개시의 일 실시 예에 따른 전자 장치(100)는 카메라(110), 디스플레이(120) 및 프로세서(130)를 포함할 수 있다.Referring to FIG. 2 , the electronic device 100 according to an embodiment of the present disclosure may include a camera 110 , a display 120 , and a processor 130 .
카메라(110)는 이미지를 획득할 수 있다. 구체적으로, 카메라(110)는 카메라(110)의 특정한 시점(Point of View; PoV)에서 카메라(110)의 화각(Field of View; FoV) 내에 존재하는 피사체를 촬영함으로써 이미지를 획득할 수 있다. 또한, 카메라(110)는 연속적인 촬영을 통해 복수의 이미지를 순차적으로 획득할 수도 있다.The camera 110 may acquire an image. Specifically, the camera 110 may acquire an image by photographing a subject existing within a field of view (FoV) of the camera 110 at a specific point of view (PoV) of the camera 110 . Also, the camera 110 may sequentially acquire a plurality of images through continuous shooting.
카메라(110)를 통해 획득된 이미지 또는 이미지와는 별도의 메타 데이터는 카메라(110)에 의해 촬영된 프레임 레이트, 시간, 시점, 화각 등에 대한 정보를 포함할 수 있다. 여기서, 프레임 레이트(Frame Rate)는 1초당(또는 1분당) 획득되는 프레임의 수(이미지의 수)를 나타내며, 화각은 카메라(110)의 렌즈의 초점 거리(focal length) 및 카메라(110)의 이미지 센서(미도시)의 크기(예: 대각 길이)에 따라 결정되는 값을 나타낼 수 있다. 또한, 시점은 카메라(110)의 내부 또는 외부에 구비된 센서(예: 자이로 센서, 가속도 센서 등)에 의해 감지될 수 있다.The image acquired through the camera 110 or metadata separate from the image may include information about a frame rate, time, viewpoint, angle of view, etc. captured by the camera 110 . Here, the frame rate represents the number of frames (the number of images) acquired per second (or per minute), and the angle of view represents the focal length of the lens of the camera 110 and that of the camera 110 . A value determined according to a size (eg, a diagonal length) of an image sensor (not shown) may be represented. Also, the viewpoint may be detected by a sensor (eg, a gyro sensor, an acceleration sensor, etc.) provided inside or outside the camera 110 .
이를 위해, 본 개시의 일 실시 예에 따른 카메라(110)는 RGB 카메라 또는 스테레오 카메라로 구현될 수 있다. To this end, the camera 110 according to an embodiment of the present disclosure may be implemented as an RGB camera or a stereo camera.
RGB 카메라는 렌즈(미도시), 이미지 센서(미도시), 이미지 프로세서(미도시)를 포함할 수 있다. 렌즈는 객체로부터 반사된 빛을 이미지 센서로 집광 또는 분광시키며, 이미지 센서는 투과된 광을 픽셀 단위로 구분하여 각 픽셀마다 R(Red), G(Green), B(Blue) 색상을 감지하여 전기 신호를 생성하고, 이미지 프로세서는 이미지 센서에서 감지된 전기 신호에 따라 각각의 픽셀을 처리하여, 객체의 색상, 형상, 명암 등을 표현하는 이미지를 획득할 수 있다. The RGB camera may include a lens (not shown), an image sensor (not shown), and an image processor (not shown). The lens collects or diverges the light reflected from the object to the image sensor, and the image sensor divides the transmitted light into pixels and detects R (Red), G (Green), B (Blue) colors for each pixel. The signal is generated, and the image processor processes each pixel according to the electrical signal detected by the image sensor to obtain an image representing the color, shape, contrast, etc. of the object.
여기서, 이미지는 현실의 3차원 공간이 가상의 2차원 평면으로 투영된 것으로서, 이미지를 구성하는 2차원 평면 상의 각 점(픽셀)은 2차원 위치 정보(예: x축상 위치, y축상 위치)를 포함할 수 있다. 이 경우, 이미지 프로세서(또는 프로세서(130))는 이미지의 음영, 명암, 포인트 클라우드(point cloud), 색상 등을 실시간 컴퓨터 비전을 분석하기 위한 프로그래밍 라이브러리(예: AR Core, AR Tool Kit, AR SDK, Unity, OpenCV(Open Source Computer Vision), Python 등), SLAM 등의 다양한 알고리즘 등을 통해 이미지를 구성하는 각각의 점(픽셀)에 뎁스(예: z축상 위치)를 부여할 수 있다. 이에 따라, 카메라(110)를 통해 획득된 이미지는 3차원 위치 정보(예: x축상 위치, y축상 위치, z축상 위치)를 포함할 수 있다. Here, the image is a projection of a real three-dimensional space onto a virtual two-dimensional plane, and each point (pixel) on the two-dimensional plane constituting the image contains two-dimensional position information (eg, position on the x-axis, position on the y-axis). may include In this case, the image processor (or the processor 130 ) uses a programming library (eg, AR Core, AR Tool Kit, AR SDK) for analyzing real-time computer vision for shading, contrast, point cloud, color, etc. of the image. , Unity, OpenCV (Open Source Computer Vision), Python, etc.), and various algorithms such as SLAM, a depth (eg, a position on the z-axis) can be given to each point (pixel) composing an image. Accordingly, the image acquired through the camera 110 may include 3D position information (eg, an x-axis position, a y-axis position, and a z-axis position).
스테레오 카메라는 상술한 RGB 카메라가 복수 개로 구성된 것이며, 복수의 RGB 카메라는 서로 이격되어 배치될 수 있다. 여기서, RGB 카메라에 대한 설명이 적용될 수 있다. 스테레오 카메라는 동일한 시점(point of time)에 서로 다른 위치에서 피사체를 동시에 촬영하여 복수의 이미지를 획득할 수 있다. The stereo camera includes a plurality of the above-described RGB cameras, and the plurality of RGB cameras may be disposed to be spaced apart from each other. Here, the description of the RGB camera may be applied. The stereo camera may acquire a plurality of images by simultaneously photographing a subject at different positions at the same point of time.
이 경우, 이미지 프로세서(또는 프로세서(130))는 복수의 이미지를 스테레오 정합(stereo matching)하여 시차(disparity)를 산출하고, 시차, 렌즈의 초점 거리 및 베이스라인(baseline)에 기초하여, 카메라(110) 및 피사체 사이의 뎁스(또는 거리)를 산출할 수 있다. 그리고, 이미지 프로세서(또는 프로세서(130))는 복수의 이미지 중 기준 이미지의 2차원 위치 정보(예: x축상 위치, y축상 위치)와 뎁스 정보(예: z축상 위치)를 결합하여, 기준 이미지 프레임에 포함된 객체에 대한 3차원 위치 정보(예: x축상 위치, y축상 위치, z축상 위치)를 획득할 수 있다. 여기서, 스테레오 정합은, 전역 정합(global matching), 지역 정합(local matching) 등 다양한 방법을 통해 동일한 시점에 대한 복수의 이미지에 포함된 동일한 피사체를 매칭하는 것을 나타낸다. 시차는 복수의 이미지에 포함된 동일한 피사체에 대한 위치 차이(예: x축 또는 y축 상의 위치 차이)를 나타내며, 초점 거리 또는 베이스라인이 클수록 시차는 높게 나타날 수 있다. 이때, 초점 거리는 이미지 센서 및 렌즈 사이의 거리를 지칭할 수 있다. 베이스라인은 복수의 RGB 카메라가 이격된 간격을 지칭할 수 있다. 기준 이미지는 복수의 RGB 카메라 중 기설정된 하나의 RGB 카메라에서 촬영된 이미지를 지칭할 수 있다.In this case, the image processor (or processor 130) calculates disparity by stereo matching a plurality of images, and based on the disparity, the focal length of the lens and the baseline, the camera ( 110) and the depth (or distance) between the subject may be calculated. In addition, the image processor (or processor 130 ) combines two-dimensional position information (eg, an x-axis position, a y-axis position) and depth information (eg, a z-axis position) of a reference image among a plurality of images to obtain a reference image 3D position information (eg, an x-axis position, a y-axis position, and a z-axis position) of an object included in the frame may be acquired. Here, stereo matching refers to matching the same subject included in a plurality of images for the same viewpoint through various methods such as global matching and local matching. The parallax indicates a position difference (eg, a position difference on an x-axis or a y-axis) of the same subject included in a plurality of images, and the greater the focal length or baseline, the higher the parallax. In this case, the focal length may refer to a distance between the image sensor and the lens. The baseline may refer to an interval at which a plurality of RGB cameras are spaced apart. The reference image may refer to an image captured by one preset RGB camera among a plurality of RGB cameras.
또한, 본 개시의 일 실시 예에 따른 카메라(110)는 RGB-D(Depth) 카메라로 구현될 수 있다. 여기서, RGB-D(Depth) 카메라는 피사체를 촬영하여 이미지를 획득하고, 카메라(110) 및 피사체 사이의 뎁스(또는 거리)를 감지할 수 있다. 이 경우 프로세서(140)는 이미지 프레임의 2차원 위치 정보(예: x축상 위치, y축상 위치)와 깊이 정보(예: z축상 위치)를 결합하여, 이미지 프레임에 포함된 객체에 대한 3차원 위치 정보(예: x축상 위치, y축상 위치, z축상 위치)를 획득할 수 있다. 이를 위해, RGB-D 카메라는 RGB 카메라 또는 스테레오 카메라에 센서(예: TOF(Time Of Flight) 센서, LIDAR 센서 등)가 결합될 수 있다.In addition, the camera 110 according to an embodiment of the present disclosure may be implemented as an RGB-D (Depth) camera. Here, the RGB-D (Depth) camera may acquire an image by photographing a subject, and detect a depth (or distance) between the camera 110 and the subject. In this case, the processor 140 combines the two-dimensional position information (eg, the x-axis position, the y-axis position) and the depth information (eg, the z-axis position) of the image frame, and the three-dimensional position of the object included in the image frame. Information (eg, position on the x-axis, position on the y-axis, position on the z-axis) can be acquired. To this end, the RGB-D camera may include a sensor (eg, a Time Of Flight (TOF) sensor, a LIDAR sensor, etc.) coupled to an RGB camera or a stereo camera.
본 개시의 일 실시 예에 따르면, 프로세서(130)는 SLAM 기반의 카메라(110)의 추적 기술을 이용하여 맵을 구축함과 동시에 이미지 상의 특정한 위치에 AR 객체를 표시하도록 디스플레이(120)를 제어할 수 있다. According to an embodiment of the present disclosure, the processor 130 may control the display 120 to display an AR object at a specific location on the image while building a map using the SLAM-based tracking technology of the camera 110 . have.
예를 들어, 카메라(110)가 복수의 이미지를 연속적으로 획득하는 경우, 프로세서(130)는 복수의 이미지 각각의 피사체, 특징점, 또는 포인트 클라우드(Point Cloud) 등을 통해 3차원 공간의 맵을 구축하며, 이와 동시에 프로세서(130)는 카메라를 통해 가장 최근에 획득된 이미지(이하, 현재 이미지) 내 3차원 공간과 맵을 비교하여, AR 객체가 위치하는 맵 상의 지점과 대응되는 현재 이미지 상의 지점에 AR 객체를 표시하도록 디스플레이(120)를 제어할 수 있다. 이에 따라, AR 객체가 표시되는 지점을 실시간으로 동기화할 수 있다. For example, when the camera 110 continuously acquires a plurality of images, the processor 130 constructs a map of a three-dimensional space through a subject, a feature point, or a point cloud of each of the plurality of images. At the same time, the processor 130 compares the map with the three-dimensional space in the image (hereinafter, the current image) most recently acquired through the camera, to the point on the current image corresponding to the point on the map where the AR object is located. The display 120 may be controlled to display the AR object. Accordingly, the point at which the AR object is displayed can be synchronized in real time.
디스플레이(120)는 정보 또는 데이터를 시각적으로 출력하는 장치이다. 디스플레이(120)는 이미지 및 AR 객체를 디스플레이 영역의 전체 또는 일부 영역에 표시할 수 있다. 디스플레이 영역은 정보 또는 데이터가 시각적으로 표시되는 픽셀 단위의 영역을 지칭할 수 있다. The display 120 is a device for visually outputting information or data. The display 120 may display the image and the AR object in all or part of the display area. The display area may refer to a pixel unit area in which information or data is visually displayed.
한편, 디스플레이(120)는 플렉서블 디스플레이(flexible display)로 구현될 수 있으며, 이 경우 디스플레이(120)는 휘거나 구부려질 수 있는 유연한 성질을 가지며, 휘거나 구부려진 상태로도 이미지 및 AR 객체를 표시할 수 있다. 한편, 디스플레이(120)는 투명 디스플레이로 구현될 수 있으며, 디스플레이(120)에는 디스플레이(120)의 투명한 성질로 인해 디스플레이(120)의 후방에 위치한 사물이 투과되어 보일 수 있다.Meanwhile, the display 120 may be implemented as a flexible display. In this case, the display 120 has a flexible property that can be bent or bent, and displays images and AR objects even in a bent or bent state. can do. Meanwhile, the display 120 may be implemented as a transparent display, and an object located behind the display 120 may be transmitted through the display 120 due to the transparent nature of the display 120 .
프로세서(130)는 카메라(110)를 통해 획득된 이미지 및 이미지 상에 AR 객체를 표시하도록 디스플레이(120)를 제어하고, 전자 장치(100)의 모드가 일반 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스(depth)가 변경되면, 변경되는 뎁스에 기초하여 디스플레이(120)에 AR 객체가 표시되는 크기를 조정하고, 전자 장치(100)의 모드가 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, 디스플레이(120)에 AR 객체가 표시되는 크기를 유지하도록 제어할 수 있다.The processor 130 controls the display 120 to display the AR object on the image and the image acquired through the camera 110, and the AR object is displayed on the image while the mode of the electronic device 100 is the normal mode. When the depth of the position is changed, the size of the AR object displayed on the display 120 is adjusted based on the changed depth, and in the state that the mode of the electronic device 100 is the arrangement mode, AR is displayed on the image. When the depth of the point where the object is located is changed, it is possible to control the display 120 to maintain the size at which the AR object is displayed.
보다 구체적으로, 프로세서(130)는 카메라(110)를 통해 획득된 이미지 및 이미지 상에 AR 객체를 표시하도록 디스플레이(120)를 제어할 수 있다.More specifically, the processor 130 may control the display 120 to display the AR object on the image and the image acquired through the camera 110 .
여기에서, 프로세서(130)는 AR 객체의 크기에 기초하여 이미지 및 이미지 상에 AR 객체를 표시하도록 디스플레이(120)를 제어할 수 있다. 이때, AR 객체의 크기는 각 AR 객체마다 표준 뎁스에서 표시되는 크기가 디폴트로 설정된 것이며, 모드에 따라 변경될 수 있다. 또한, 크기는 넓이, 부피, 대각선 길이, 가로 및 세로 길이, 반지름, 지름 등 다양한 개념을 총칭할 수 있다. Here, the processor 130 may control the display 120 to display the image and the AR object on the image based on the size of the AR object. In this case, the size of the AR object is set to a size displayed at the standard depth for each AR object as a default, and may be changed according to the mode. In addition, the size may collectively refer to various concepts such as area, volume, diagonal length, horizontal and vertical length, radius, and diameter.
그리고, 프로세서(130)는 전자 장치(100)의 모드가 일반 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스(depth)가 변경되면, 변경되는 뎁스에 기초하여 디스플레이(120)에 AR 객체가 표시되는 크기를 조정할 수 있다. In addition, when the depth of the point where the AR object is located on the image is changed while the mode of the electronic device 100 is the normal mode, the processor 130 displays the AR on the display 120 based on the changed depth. You can adjust the size at which the object is displayed.
여기에서, AR 객체가 위치하는 지점의 뎁스는, 뎁스 방향에 따라 카메라(110)가 위치하는 지점이 이동됨에 따라 변경될 수 있다. 뎁스 방향은 z축 방향일 수 있다.Here, the depth of the point where the AR object is positioned may be changed as the point where the camera 110 is positioned is moved according to the depth direction. The depth direction may be a z-axis direction.
예를 들어, 카메라(110)가 뎁스 방향으로 이동하는 경우에(카메라(110)의 이동 방향에 대한 벡터의 적어도 일 성분이 뎁스 방향인 경우) 카메라(110)가 위치하는 지점이 변경될 수 있으며, 이로 인해 카메라(110)가 위치하는 지점 및 AR 객체가 위치하는 지점 사이의 거리(뎁스)가 변경될 수 있다. 이는 일반 모드 뿐만 아니라 배치 모드에서도 적용될 수 있다.For example, when the camera 110 moves in the depth direction (when at least one component of the vector with respect to the moving direction of the camera 110 is in the depth direction), the point at which the camera 110 is located may be changed. , due to this, the distance (depth) between the point where the camera 110 is positioned and the point where the AR object is positioned may be changed. This can be applied not only in normal mode but also in batch mode.
본 개시의 일 실시 예에 따른, 프로세서(130)는 전자 장치(100)의 모드가 일반 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스 및 AR 객체에 할당된 속성에 기초하여, 디스플레이(120)에 AR 객체가 표시되는 크기를 조정할 수 있다. According to an embodiment of the present disclosure, the processor 130 performs the display 120 on the basis of the depth of the point where the AR object is located and the attribute assigned to the AR object in a state in which the mode of the electronic device 100 is the normal mode. ), you can adjust the size of the AR object displayed.
여기에서, 프로세서(130)는 전자 장치(100)의 모드가 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우, 이미지 상에서 AR 객체의 뎁스가 변경되면 디스플레이(120)에 AR 객체가 표시되는 크기가 유지되도록 제어하고, 전자 장치(100)의 모드가 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 증가하면 크기가 감소하도록 디스플레이(120)에 AR 객체가 표시되는 크기를 조정하고, AR 객체가 위치하는 지점의 뎁스가 감소하면 크기가 증가하도록 디스플레이(120)에 AR 객체가 표시되는 크기를 조정할 수 있다.Here, the processor 130 displays the display 120 when the depth of the AR object on the image is changed when the attribute assigned to the AR object is a fixed size while the mode of the electronic device 100 is the normal mode. In a state where the size at which the AR object is displayed is maintained, and the mode of the electronic device 100 is in the normal mode, when the property assigned to the AR object is a property whose size changes, the point at which the AR object is located on the image The size at which the AR object is displayed on the display 120 is adjusted so that the size decreases when the depth of the AR object increases, and the size at which the AR object is displayed on the display 120 increases when the depth of the point where the AR object is located decreases. can be adjusted.
구체적으로, AR 객체에 할당되는 속성은 크기가 고정되는 속성 및 크기가 변동되는 속성 중에서 하나일 수 있다. AR 객체 각각에는 크기가 고정되는 속성 및 크기가 변동되는 속성 중에서 입력 인터페이스(170, 도 3 참조)를 통한 사용자 명령(예: 터치 제스처, 모션 제스처, 사용자 음성, 마우스 클릭 등)에 따라 선택된 속성이 할당될 수 있다. 또는, 프로세서(130)는 사용자 명령이 없더라도(즉, 자동으로), AR 객체에 크기가 고정되는 속성이 할당되지 않은 경우를 크기가 변동되는 속성이 AR 객체에 할당된 것으로 간주될 수 있다. 또는, 프로세서(130)는 사용자 명령이 없더라도(즉, 자동으로), AR 객체가 문자, 숫자, 기호 등과 같은 텍스트 유형의 정보인 경우, 크기가 고정되는 속성이 AR 객체에 할당될 수도 있다. 여기서, AR 객체에 할당된 속성은 메모리(150)에 저장될 수 있다.Specifically, the attribute assigned to the AR object may be one of a fixed size attribute and a variable size attribute. Each AR object has a property selected according to a user command (eg, a touch gesture, a motion gesture, a user's voice, a mouse click, etc.) through the input interface 170 (refer to FIG. 3) among the properties of fixed size and properties of variable size. can be assigned. Alternatively, even if there is no user command (that is, automatically), the processor 130 may consider that a size-variable attribute is assigned to the AR object when a fixed-size attribute is not assigned to the AR object. Alternatively, the processor 130 may assign a fixed size attribute to the AR object when the AR object is text-type information such as letters, numbers, and symbols, even without a user command (ie, automatically). Here, the attribute assigned to the AR object may be stored in the memory 150 .
한편, 본 개시의 사용자 명령은 예를 들어, 터치 제스처, 모션 제스처, 사용자 음성, 마우스 클릭, 키보드 입력, 버튼 입력 등 다양한 유형의 입력일 수 있으며, 나아가, 사용자 명령은 이에 국한되지 아니하고 기술의 발전에 따라 사용자가 전자 장치와 상호작용할 수 있는 모든 유형의 입력으로 변형될 수 있다. 이하에서는 설명의 편의를 위해 터치 제스처인 것으로 가정하고 설명하도록 한다.Meanwhile, the user command of the present disclosure may be, for example, various types of input such as a touch gesture, a motion gesture, a user's voice, a mouse click, a keyboard input, a button input, and the like, and further, the user command is not limited thereto, and the development of technology is not limited thereto. Accordingly, it can be transformed into any type of input that the user can interact with with the electronic device. Hereinafter, for convenience of description, it is assumed that the touch gesture is described.
여기에서, 프로세서(130)는 전자 장치(100)의 모드가 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우 변경되는 뎁스에 기초하여 디스플레이(120)에 AR 객체가 표시되는 크기가 변경되도록 조정할 수 있다. 즉, 이 경우 도 4a와 같이 AR 객체에 대한 원근법이 적용될 수 있다.Here, in a state in which the mode of the electronic device 100 is the normal mode, the processor 130 displays the AR object on the display 120 based on the changed depth when the property assigned to the AR object is a property whose size changes. You can adjust the displayed size to change. That is, in this case, perspective may be applied to the AR object as shown in FIG. 4A .
구체적으로, 프로세서(130)는 전자 장치(100)의 모드가 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우, AR 객체가 이미지 상에 위치하는 지점의 뎁스가 증가하면 디스플레이(120)에 AR 객체가 표시되는 크기가 감소하도록 AR 객체를 조정하고, AR 객체가 이미지 상에 위치하는 지점의 뎁스가 감소하면 디스플레이(120)에 AR 객체가 표시되는 크기를 증가하도록 AR 객체를 조정할 수 있다. Specifically, the processor 130 increases the depth of the point at which the AR object is located on the image when the property assigned to the AR object is a property whose size changes while the mode of the electronic device 100 is the normal mode. If the AR object is adjusted so that the size at which the AR object is displayed on the display 120 is decreased, the AR object is adjusted to decrease the size of the AR object displayed on the display 120 when the depth of the point where the AR object is located on the image is decreased. objects can be adjusted.
예를 들어, 도 4a를 참조하면, 일반 모드에서 카메라(110)의 시점이 이동하여 AR 객체(415, 425)에 대한 뎁스가 1m에서 3m로 변경된 경우를 가정하기로 한다. For example, it is assumed that the depth of the AR objects 415 and 425 is changed from 1m to 3m by moving the viewpoint of the camera 110 in the normal mode, referring to FIG. 4A .
여기서, 프로세서(130)는 AR 객체(415, 425)의 크기 및 뎁스(1m, 3m)에 기초하여, 이미지(410, 420) 상에 AR 객체(415, 425)를 표시하도록 디스플레이(120)를 제어할 수 있다. 여기서, AR 객체(415, 425)의 크기는 동일한 기설정된 크기(디폴트 크기)를 갖는다. 또한, AR 객체(415, 425)의 크기는 표준 뎁스(예: 1m)에서 표시되는 크기일 수 있다.Here, the processor 130 sets the display 120 to display the AR objects 415 and 425 on the images 410 and 420 based on the sizes and depths (1m, 3m) of the AR objects 415 and 425 . can be controlled Here, the AR objects 415 and 425 have the same preset size (default size). Also, the size of the AR objects 415 and 425 may be a size displayed at a standard depth (eg, 1 m).
그리고, 프로세서(130)는 표준 뎁스인 1m의 뎁스에서, AR 객체(415)의 기설정된 크기로 AR(415)를 이미지(410) 상에 표시하도록 디스플레이(120)를 제어할 수 있다.In addition, the processor 130 may control the display 120 to display the AR 415 on the image 410 with a preset size of the AR object 415 at a depth of 1 m, which is a standard depth.
그리고, 프로세서(130)는 카메라(110)가 위치하는 지점(시점)이 이동함에 따라 AR 객체에 대한 뎁스가 3m으로 변경된 경우, AR 객체에 할당된 속성이 크기가 고정되는 속성 및 크기가 변동되는 속성 중 어느 것인지 판단할 수 있다. 여기서, AR 객체의 속성이 크기가 변동되는 속성으로 판단된 경우, 프로세서(130)는 표준 뎁스 보다 큰 3m의 뎁스에서, 원근법에 의해 AR 객체(425)의 기설정된 크기 보다 작은 크기로 AR 객체(425)를 이미지(420) 상에 표시하도록 디스플레이(120)를 제어할 수 있다. And, when the depth of the AR object is changed to 3m as the point (viewpoint) where the camera 110 is located moves, the processor 130 determines that the property assigned to the AR object is fixed in size and the size is changed. You can determine which of the properties are. Here, when it is determined that the property of the AR object is a property whose size is variable, the processor 130 sets the AR object to a size smaller than the preset size of the AR object 425 by perspective at a depth of 3 m greater than the standard depth ( The display 120 may be controlled to display 425 on the image 420 .
즉, 프로세서(130)는 뎁스가 1m에서 3m로 증가함에 따라, AR 객체(415, 425)가 이미지(410, 420) 상에 표시되는 크기를 감소시킬 수 있다. 또한, 이와 달리 뎁스가 3m에서 1m로 감소하는 경우에는, 프로세서(130)는 감소된 뎁스에 따라 AR 객체(415, 425)가 이미지(410, 420) 상에 표시되는 크기를 증가시킬 수 있다.That is, as the depth increases from 1 m to 3 m, the processor 130 may decrease the size of the AR objects 415 and 425 displayed on the images 410 and 420 . Alternatively, when the depth is decreased from 3m to 1m, the processor 130 may increase the size of the AR objects 415 and 425 displayed on the images 410 and 420 according to the decreased depth.
한편, 프로세서(130)는 전자 장치(100)의 모드가 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우 디스플레이(120)에 AR 객체가 표시되는 크기가 유지되도록 제어할 수 있다. 즉, 이 경우 도 4b와 같이 AR 객체에 대한 원근법이 무시될 수 있다.On the other hand, the processor 130 controls the display 120 to maintain the size at which the AR object is displayed when the property assigned to the AR object is a fixed size property while the mode of the electronic device 100 is the normal mode. can do. That is, in this case, the perspective for the AR object may be ignored as shown in FIG. 4B .
구체적으로, 프로세서(130)는 전자 장치(100)의 모드가 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우, AR 객체가 이미지 상에 위치하는 지점의 뎁스가 변경되더라도 디스플레이(120)에 AR 객체가 표시되는 크기가 유지되도록 제어할 수 있다. Specifically, the processor 130 changes the depth of the point at which the AR object is located on the image when the property assigned to the AR object is a property in which the size is fixed while the mode of the electronic device 100 is the normal mode. Even if it is, it is possible to control so that the size of the AR object displayed on the display 120 is maintained.
예를 들어, 도 4b를 참조하면, 일반 모드에서 카메라(110)의 시점이 이동하여 AR 객체(435, 445)와의 뎁스가 1m에서 3m로 변경된 경우를 가정하기로 한다. For example, it is assumed that the depth with the AR objects 435 and 445 is changed from 1m to 3m by moving the viewpoint of the camera 110 in the normal mode, referring to FIG. 4B .
여기서, 프로세서(130)는 AR 객체(435, 445)의 크기 및 뎁스(1m, 3m)에 기초하여, 이미지(430, 440) 상에 AR 객체(435, 445)를 표시하도록 디스플레이(120)를 제어할 수 있다. 여기서, AR 객체(435, 445)의 크기는 동일한 기설정된 크기(디폴트 크기)를 갖는다. 또한, AR 객체(435, 445)의 크기는 표준 뎁스(예: 1m)에서 표시되는 크기일 수 있다.Here, the processor 130 sets the display 120 to display the AR objects 435 and 445 on the images 430 and 440 based on the sizes and depths (1m, 3m) of the AR objects 435 and 445 . can be controlled Here, the AR objects 435 and 445 have the same preset size (default size). Also, the size of the AR objects 435 and 445 may be a size displayed at a standard depth (eg, 1 m).
그리고, 프로세서(130)는 표준 뎁스인 1m의 뎁스에서, AR 객체(435)의 기설정된 크기로 AR(435)를 이미지(420) 상에 표시하도록 디스플레이(120)를 제어할 수 있다.In addition, the processor 130 may control the display 120 to display the AR 435 on the image 420 with a preset size of the AR object 435 at a depth of 1 m, which is a standard depth.
그리고, 프로세서(130)는 일반 모드에서 카메라(110)가 위치하는 지점(시점)이 이동함에 따라 AR 객체에 대한 뎁스가 3m으로 변경된 경우, AR 객체에 할당된 속성이 크기가 고정되는 속성 및 크기가 변동되는 속성 중 어느 것인지 판단할 수 있다. 여기서, AR 객체의 속성이 크기가 고정되는 속성으로 판단된 경우, 프로세서(130)는 표준 뎁스 보다 큰 3m의 뎁스에서, AR 객체(445)의 기설정된 크기 보다 작은 크기로 AR 객체(445)가 표시되는 것을 방지하기 위해, AR 객체(445)가 배치된 지점의 뎁스에 따라 AR 객체(445)의 기설정된 크기를 크게 조정할 수 있다. 이에 따라, AR 객체의 뎁스에 따른 원근법을 무시할 수 있다.In addition, when the depth of the AR object is changed to 3m as the point (viewpoint) at which the camera 110 is located moves in the normal mode, the processor 130 determines that the property assigned to the AR object has a fixed size and size. It is possible to determine which of the properties that is changed. Here, when it is determined that the property of the AR object has a fixed size, the processor 130 sets the AR object 445 to a size smaller than the preset size of the AR object 445 at a depth of 3 m greater than the standard depth. In order to prevent the display from being displayed, the preset size of the AR object 445 may be largely adjusted according to the depth of the point where the AR object 445 is disposed. Accordingly, perspective according to the depth of the AR object may be ignored.
예를 들어, 프로세서(130)는 size(B) = size(A) * distance(A-B)와 같은 수식에 따라 AR 객체의 기설정된 크기(디폴트 크기)를 조정하여, AR 객체가 디스플레이 상에 표시되는 크기를 유지할 수 있다. 여기서, size(A)는 AR 객체가 A 지점에 위치할 때의 크기이고, size(B)는 AR 객체가 B 지점에 위치할 때의 크기이며, distance(A-B)는 A 지점 및 B 지점 간의 뎁스 차이(또는 거리)를 나타낼 수 있다.For example, the processor 130 adjusts the preset size (default size) of the AR object according to a formula such as size(B) = size(A) * distance(AB), so that the AR object is displayed on the display. size can be maintained. Here, size(A) is the size when the AR object is located at point A, size(B) is the size when the AR object is located at point B, and distance(AB) is the depth between point A and point B It can represent a difference (or distance).
즉, 프로세서(130)는 AR 객체에 기설정된 고유의 크기(또는 AR 객체의 본래의 크기)를 조정함으로써, 디스플레이(120) 상에 AR 객체가 표시되는 크기를 일정한 크기로 유지할 수 있다. That is, the processor 130 may maintain the size at which the AR object is displayed on the display 120 at a constant size by adjusting a predetermined original size (or the original size of the AR object) of the AR object.
이상과 같은 본 개시의 일 실시 예에 따른 전자 장치(100)는, 일반 모드에서도 AR 객체가 배치된 지점의 뎁스가 크거나 작은 경우(즉, AR 객체가 카메라(110)와 멀리 있거나 가까이 있는 경우)에 AR 객체가 디스플레이(120)에 표시되는 크기가 크게 표시되거나 작게 표시되지 않도록 AR 객체가 디스플레이(120)에 표시되는 크기를 유지할 수 있다. 이에 따라, 사용자는 텍스트 유형의 정보와 같이 크기가 고정되는 속성이 부여된 AR 객체를 뎁스(거리)에 상관 없이 적절한 크기로 볼 수 있다는 점에서, 정보의 시인성이 향상될 수 있다. 또한, 사용자가 AR 객체의 크기를 별도로 조정할 필요가 없다는 점에서 사용자 편의성이 향상될 수 있다.As described above, in the electronic device 100 according to an embodiment of the present disclosure, even in the normal mode, when the depth of the point at which the AR object is disposed is large or small (ie, when the AR object is far away from or close to the camera 110 ) ), the size of the AR object displayed on the display 120 may be maintained so that the size displayed on the display 120 is not displayed large or small. Accordingly, the visibility of information may be improved in that the user can view an AR object to which an attribute having a fixed size, such as text-type information, is assigned regardless of a depth (distance) in an appropriate size. In addition, user convenience may be improved in that the user does not need to separately adjust the size of the AR object.
그리고, 프로세서(130)는 전자 장치(100)의 모드가 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, 디스플레이(120)에 AR 객체가 표시되는 크기를 유지하도록 제어할 수 있다. 즉, 이 경우 AR 객체에 대한 원근법이 무시될 수 있다.Then, when the depth of the point where the AR object is located on the image is changed while the mode of the electronic device 100 is the arrangement mode, the processor 130 controls to maintain the size at which the AR object is displayed on the display 120 . can do. That is, in this case, the perspective for the AR object may be ignored.
한편, 배치 모드는 이미지 상에 표시되는 AR 객체가 위치하는 지점을 수정(편집)하기 위한 편집 모드 뿐만 아니라, 이미지 상에 표시되지 않는 AR 객체를 추가하여 이미지 상의 특정한 지점에 위치시키기 위한 추가 모드를 포함할 수 있다.On the other hand, in the arrangement mode, not only the editing mode for correcting (editing) the point where the AR object displayed on the image is located, but also an additional mode for locating the AR object not displayed on the image at a specific point on the image. may include
여기에서, AR 객체가 위치하는 지점의 뎁스는, 뎁스 방향에 따라 카메라(110)가 위치하는 지점 또는 이미지 상에서 AR 객체가 위치하는 지점이 이동됨에 따라 변경될 수 있다.Here, the depth of the point at which the AR object is located may be changed according to the movement of the point at which the camera 110 is located or the point at which the AR object is located on the image according to the depth direction.
예를 들어, AR 객체가 사용자 명령에 따라 뎁스 방향으로 이동하는 경우에(AR 객체의 이동 방향에 대한 벡터의 적어도 일 성분이 뎁스 방향인 경우), AR 객체가 이미지 상에서 위치하는 지점이 변경될 수 있으며, 이로 인해 카메라(110)가 위치하는 지점 및 AR 객체가 위치하는 지점 사이의 거리(뎁스)가 변경될 수 있다. 이는 AR 객체가 배치되는 지점이 변경될 수 있는 배치 모드에서만 적용될 수 있다.For example, when the AR object moves in the depth direction according to a user command (when at least one component of a vector with respect to the moving direction of the AR object is in the depth direction), the point at which the AR object is located on the image may be changed. Thereby, the distance (depth) between the point where the camera 110 is positioned and the point where the AR object is positioned may be changed. This can be applied only in the arrangement mode where the point at which the AR object is placed can be changed.
본 개시의 일 실시 예에 따르면, 프로세서(130)는 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, 디스플레이(120)에 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 변경할 수 있다.According to an embodiment of the present disclosure, when the depth of the point where the AR object is located on the image is changed in the arrangement mode, the processor 130 maintains the size at which the AR object is displayed on the display 120 to maintain the AR object. can change the size of
구체적으로, 프로세서(130)는 전자 장치(100)의 모드가 배치 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스가 증가하면 디스플레이(120)에 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 증가시킬 수 있다.Specifically, when the depth of the point at which the AR object is located increases while the mode of the electronic device 100 is the arrangement mode, the processor 130 controls the size of the AR object to maintain the size at which the AR object is displayed on the display 120 . size can be increased.
이와 달리, 프로세서(130)는 전자 장치(100)의 모드가 배치 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스가 감소하면 디스플레이(120)에 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 감소시킬 수 있다.Contrary to this, when the depth of the point at which the AR object is located decreases while the mode of the electronic device 100 is the arrangement mode, the processor 130 controls the size of the AR object to maintain the size at which the AR object is displayed on the display 120 . size can be reduced.
예를 들어, 도 4b를 참조하여, 배치 모드에서 AR 객체가 위치하는 지점이 이동하여 AR 객체(435, 445)와의 뎁스가 1m에서 3m로 변경된 경우를 가정하기로 한다. For example, it is assumed that the depth with the AR objects 435 and 445 is changed from 1 m to 3 m by moving the point where the AR object is located in the arrangement mode with reference to FIG. 4B .
여기서, 프로세서(130)는 AR 객체(435, 445)의 크기 및 뎁스(예: 1m, 3m)에 기초하여, 이미지(430, 440) 상에 AR 객체(435, 445)를 표시하도록 디스플레이(120)를 제어할 수 있다. 여기서, AR 객체(435, 445)의 크기는 동일한 기설정된 크기(디폴트 크기)에서 변경된 것일 수 있다. Here, the processor 130 displays the AR objects 435 and 445 on the images 430 and 440 based on the sizes and depths (eg, 1m, 3m) of the AR objects 435 and 445 on the display 120 to display the AR objects 435 and 445 . ) can be controlled. Here, the sizes of the AR objects 435 and 445 may be changed from the same preset size (default size).
그리고, 프로세서(130)는 표준 뎁스인 1m의 뎁스에서, AR 객체(435)의 기설정된 크기로 AR(435)를 이미지(430) 상에 표시하도록 디스플레이(120)를 제어할 수 있다.In addition, the processor 130 may control the display 120 to display the AR 435 on the image 430 with a preset size of the AR object 435 at a depth of 1 m, which is a standard depth.
그리고, 프로세서(130)는 배치 모드에서 사용자 명령에 따라 AR 객체가 위치하는 지점이 이동함에 따라 뎁스가 3m으로 변경된 경우, 표준 뎁스 보다 큰 3m의 뎁스에서, AR 객체(445)의 기설정된 크기 보다 작은 크기로 AR 객체(445)가 표시되는 것을 방지하기 위해, AR 객체(445)가 배치된 지점의 뎁스에 따라 AR 객체(445)의 기설정된 크기를 크게 조정할 수 있다. 이에 따라, AR 객체의 뎁스에 따른 원근법을 무시할 수 있다.In addition, when the depth is changed to 3m as the point at which the AR object is located moves according to a user command in the arrangement mode, the processor 130 determines that at a depth of 3m greater than the standard depth, the AR object 445 is larger than the preset size. In order to prevent the AR object 445 from being displayed in a small size, the preset size of the AR object 445 may be increased according to the depth of the point where the AR object 445 is disposed. Accordingly, perspective according to the depth of the AR object may be ignored.
예를 들어, 프로세서(130)는 size(B) = size(A) * distance(A-B)와 같은 수식에 따라 AR 객체의 기설정된 크기(디폴트 크기)를 조정하여, AR 객체가 디스플레이 상에 표시되는 크기를 유지할 수 있다. 여기서, size(A)는 AR 객체가 A 지점에 위치할 때의 크기이고, size(B)는 AR 객체가 B 지점에 위치할 때의 크기이며, distance(A-B)는 A 지점 및 B 지점 간의 뎁스 차이(또는 거리)를 나타낼 수 있다.For example, the processor 130 adjusts the preset size (default size) of the AR object according to a formula such as size(B) = size(A) * distance(AB), so that the AR object is displayed on the display. size can be maintained. Here, size(A) is the size when the AR object is located at point A, size(B) is the size when the AR object is located at point B, and distance(AB) is the depth between point A and point B It can represent a difference (or distance).
즉, 프로세서(130)는 AR 객체에 기설정된 고유의 크기를 조정함으로써, 디스플레이(120) 상에 AR 객체가 표시되는 크기를 일정한 크기로 유지할 수 있다. That is, the processor 130 may maintain the size at which the AR object is displayed on the display 120 at a constant size by adjusting a predetermined unique size of the AR object.
이상과 같은 본 개시의 일 실시 예에 따른 전자 장치(100)는, 배치 모드에서 AR 객체가 배치된 지점을 변경하는 동안, 원근법을 무시하도록 AR 객체가 디스플레이(120)에 표시되는 크기를 유지할 수 있다. 이에 따라, AR 객체가 위치하는 지점의 뎁스에 따라 AR가 표시되는 크기가 달라지지 않는다는 점에서 AR 객체를 조작하는 사용자 편의성이 향상될 수 있으며, AR 객체의 실제 크기가 어떤 정도인지 사용자가 보다 용이하게 예측할 수 있는 효과가 있다. As described above, the electronic device 100 according to an embodiment of the present disclosure may maintain the size at which the AR object is displayed on the display 120 so as to ignore the perspective while changing the position at which the AR object is disposed in the arrangement mode. have. Accordingly, user convenience in manipulating the AR object may be improved in that the size of the AR display does not change depending on the depth of the point where the AR object is located, and it is easier for the user to know what the actual size of the AR object is. It has a predictable effect.
도 3을 참조하면, 본 개시의 일 실시 예에 따른 전자 장치(100)는 카메라(110), 디스플레이(120), 프로세서(130) 외에도 스피커(140), 메모리(150), 통신부(160) 및 입력 인터페이스(170) 중에서 적어도 하나를 더 포함할 수 있다.Referring to FIG. 3 , the electronic device 100 according to an embodiment of the present disclosure includes a speaker 140 , a memory 150 , a communication unit 160 , and a camera 110 , a display 120 , and a processor 130 in addition to the processor 130 . At least one of the input interfaces 170 may be further included.
프로세서(130)는 메모리(150)에 저장된 적어도 하나의 인스트럭션을 실행함으로써 전자 장치(100)를 제어할 수 있다. 이를 위해, 프로세서(130)는 카메라(110), 디스플레이(120) 및 메모리(150)와 연결되어 전자 장치(100)를 제어할 수 있다. 구체적으로, 프로세서(130)는 인스트럭션을 읽고 해석하며 데이터 처리를 위한 시퀀스를 결정할 수 있으며, 이에 따라 다른 장치의 동작을 제어하는 타이밍 및 제어 신호를 다른 장치로 제공함으로써 다른 장치의 동작을 제어할 수 있다. The processor 130 may control the electronic device 100 by executing at least one instruction stored in the memory 150 . To this end, the processor 130 may be connected to the camera 110 , the display 120 , and the memory 150 to control the electronic device 100 . Specifically, the processor 130 may read and interpret the instructions and determine a sequence for data processing, thereby controlling the operation of another device by providing timing and control signals for controlling the operation of the other device to the other device. have.
한편, 프로세서(130)는 프로세서(130) 내부에 구비된 메모리(미도시)에 저장된 적어도 하나의 인스트럭션을 실행함으로써 전자 장치(100)를 제어할 수도 있다. 이때, 프로세서(130) 내부에 구비된 메모리는 ROM(예: NOR 또는 NAND형 플래시 메모리), RAM(예: DRAM(dynamic RAM), SDRAM(synchronous DRAM), DDR SDRAM(Double data rate SDRAM)), 휘발성 메모리 등을 포함할 수 있다.Meanwhile, the processor 130 may control the electronic device 100 by executing at least one instruction stored in a memory (not shown) provided in the processor 130 . In this case, the memory provided in the processor 130 includes a ROM (eg, NOR or NAND type flash memory), a RAM (eg, dynamic RAM (DRAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM)), volatile memory and the like.
한편, 프로세서(130)는 하나 또는 복수의 프로세서로 구성될 수도 있으며, 프로세서(130)는 CPU(Central Processing Unit), AP(Application Processor) 등과 같은 범용 프로세서, GPU(Graphic Processing Unit), VPU(Vision Processing Unit) 등과 같은 그래픽 전용 프로세서, NPU(Neural Processing Unit)와 같은 인공지능 전용 프로세서 등으로 구현될 수 있다.Meanwhile, the processor 130 may include one or a plurality of processors, and the processor 130 is a general-purpose processor such as a central processing unit (CPU), an application processor (AP), a graphic processing unit (GPU), and a vision (VPU). It may be implemented with a graphics-only processor, such as a processing unit, or an artificial intelligence-only processor, such as a neural processing unit (NPU).
여기서, 프로세서(130)는 GPU 및 CPU를 포함할 수 있으며, GPU 및 CPU는 연계하여 본 개시의 동작을 수행할 수 있다. 예를 들어, GPU는 데이터 중 이미지 프레임 등을 처리하고, CPU는 나머지 데이터(예: 인스트럭션, 코드 등)를 처리할 수 있다. 이때, GPU는 여러 명령어 또는 데이터를 동시에 처리하는 병렬 처리 방식에 특화된 수백 또는 수천 개의 코어를 갖는 구조로 구현되며, CPU는 명령어 또는 데이터가 입력된 순서대로 처리하는 직렬 처리 방식에 특화된 수개의 코어를 갖는 구조로 구현될 수 있다. Here, the processor 130 may include a GPU and a CPU, and the GPU and the CPU may perform the operations of the present disclosure in connection. For example, the GPU may process an image frame among data, and the CPU may process the remaining data (eg, instructions, code, etc.). At this time, the GPU is implemented in a structure with hundreds or thousands of cores specialized for a parallel processing method that processes multiple commands or data simultaneously, and the CPU has several cores specialized for a serial processing method that processes commands or data in the order in which they are input. It can be implemented with a structure with
일 실시 예로서, GPU는 카메라(110)를 통해 획득된 복수의 제1 이미지 프레임에서 복수의 손가락을 검출하고, CPU는 검출된 복수의 손가락의 포즈가 트리거 포즈에 대응되는 것으로 식별되면, 문자 입력 모드로 진입하고, GPU는 문자 입력 모드에서 카메라(110)를 통해 획득된 복수의 제2 이미지 프레임에서 복수의 손가락 중 하나의 손가락의 모션을 검출하고, CPU는 모션에 의한 손가락의 위치 및 손가락에 설정된 기준점의 위치에 기초하여 손가락에 매핑된 복수의 키 중 모션에 대응되는 키를 식별하고, 식별된 키에 대응되는 정보를 표시하도록 디스플레이(120)를 제어할 수 있다. 이는 일 실시 예일 뿐 다양한 변형 실시 예가 가능하며, 이하에서는 설명의 편의를 위해 프로세서(130)에 의해 수행되는 것으로 설명하도록 한다.As an embodiment, the GPU detects a plurality of fingers from the plurality of first image frames acquired through the camera 110 , and the CPU determines that the detected poses of the plurality of fingers correspond to the trigger poses, inputting a character mode, the GPU detects the motion of one of the plurality of fingers in the plurality of second image frames acquired through the camera 110 in the text input mode, and the CPU detects the position of the finger by the motion and the finger The display 120 may be controlled to identify a key corresponding to a motion among a plurality of keys mapped to a finger based on the position of the set reference point and display information corresponding to the identified key. This is just one embodiment and various modified embodiments are possible, and hereinafter, for convenience of description, it will be described as being performed by the processor 130 .
스피커(140)는 오디오 처리부(미도시)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 직접 소리로 출력할 수 있으며, 전자 장치(100)에 내장된 형태로 구현되거나 별도의 외부 장치로 구현될 수 있다. 여기서, 스피커(160)는 특정한 위치 또는 영역에 대해서만 소리를 전달하는 지향성 스피커로 구현될 수도 있다. The speaker 140 may directly output various notification sounds or voice messages as well as various audio data on which various processing operations such as decoding, amplification, and noise filtering have been performed by an audio processing unit (not shown), and the electronic device ( 100) or may be implemented as a separate external device. Here, the speaker 160 may be implemented as a directional speaker that transmits sound only to a specific location or area.
메모리(150)는 카메라(110), 프로세서(130) 등이 접근할 수 있도록 데이터 등의 정보를 전기 또는 자기 형태로 저장하는 하드웨어를 지칭할 수 있으며, 메모리(150)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(Flash Memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD), RAM, ROM 등 중에서 적어도 하나의 하드웨어로 구현될 수 있다. The memory 150 may refer to hardware that stores information such as data in an electrical or magnetic form so that the camera 110, the processor 130, etc. can access it, and the memory 150 is a non-volatile memory, a volatile memory, and the like. , a flash memory, a hard disk drive (HDD) or a solid state drive (SSD), RAM, ROM, etc. may be implemented as hardware.
메모리(150)에는 전자 장치(100) 또는 프로세서(130)의 동작에 필요한 적어도 하나의 인스트럭션(instruction), 프로그램 또는 데이터가 저장될 수 있다. 여기서, 인스트럭션은 전자 장치(100) 또는 프로세서(130)의 동작을 지시하는 부호 단위로서, 컴퓨터가 이해할 수 있는 언어인 기계어로 작성된 것일 수 있다. 프로그램은 작업 단위의 특정 작업을 수행하는 일련의 인스트럭션의 집합체(instruction set)일 수 있다. 데이터는 문자, 수, 영상 등을 나타낼 수 있는 비트 또는 바이트 단위의 상태 정보일 수 있다. At least one instruction, program, or data required for the operation of the electronic device 100 or the processor 130 may be stored in the memory 150 . Here, the instruction is a code unit for instructing the operation of the electronic device 100 or the processor 130 , and may be written in machine language, which is a language that a computer can understand. A program may be a set of instructions that perform a specific task in a unit of work. The data may be status information in units of bits or bytes that can represent characters, numbers, images, and the like.
또한, 메모리(150)에는 카메라(110)에 의해 획득된 이미지 프레임, 프로세서(140)에 의해 식별된 키에 대응되는 정보 등이 저장될 수 있다. 메모리(150)는 프로세서(130)에 의해 액세스되며, 프로세서(130)에 의해 인스트럭션, 프로그램 또는 데이터에 대한 독취/기록/수정/삭제/갱신 등이 수행될 수 있다.Also, the memory 150 may store an image frame acquired by the camera 110 , information corresponding to a key identified by the processor 140 , and the like. The memory 150 is accessed by the processor 130 , and reading/writing/modification/deletion/update of instructions, programs, or data may be performed by the processor 130 .
통신부(160)는 유선 또는 무선의 다양한 통신 방식에 따라 다양한 유형의 외부 장치(서버 등)와 다양한 유형의 데이터를 송수신할 수 있다. 이때, 통신부(160)는 외부 장치와 직접(direct) 통신을 수행하거나, 다양한 통신망을 통해 다른 외부 장치를 경유하여(또는 중계하여) 외부 장치와 통신을 수행할 수 있다. 이를 위해, 통신부(160)는 각 통신 방식에 따른 회로(circuitry)를 포함할 수 있으며, 무선 통신 방식의 경우 안테나 등을 더 포함할 수 있다. The communication unit 160 may transmit/receive various types of data to/from various types of external devices (eg, servers) according to various wired or wireless communication methods. In this case, the communication unit 160 may perform direct communication with an external device or may communicate with an external device via (or relay) other external devices through various communication networks. To this end, the communication unit 160 may include circuitry according to each communication method, and may further include an antenna or the like in the case of a wireless communication method.
통신부(160)는 외부 장치로부터 정보를 수신하고, 수신된 정보를 프로세서(130)로 전달할 수 있다. 또한, 통신부(160)는 프로세서(130)의 제어에 따라 외부 장치로 정보를 전송할 수 있다. The communication unit 160 may receive information from an external device and transmit the received information to the processor 130 . Also, the communication unit 160 may transmit information to an external device under the control of the processor 130 .
통신부(160)는 와이파이(WiFi(Wi-Fi)) 통신 방식을 이용하는 와이파이 칩, 블루투스(Bluetooth) 통신 방식을 이용하는 블루투스 칩, NFC(near field communication) 통신 방식을 이용하는 NFC 칩, 이동 통신 방식(예: LTE(long-term evolution), LTE-A(LTE Advance), 5G(5th Generation), CDMA(code division multiple access), WCDMA(wideband CDMA))을 이용하는 무선 통신 칩 및 적외선 통신 방식을 이용하는 적외선 통신 칩 중 적어도 하나를 포함할 수 있다. 나아가, 통신부(160)는 유선 통신을 수행하는 이더넷 모듈(미도시) 및 USB 모듈(미도시) 중 적어도 하나를 포함할 수 있다. 여기서, 통신부(160)는 유무선 통신 방식에 따른 네트워크 인터페이스(Network Interface) 또는 네트워크 칩을 포함할 수 있다. 한편, 통신부(160)의 통신 방식은 상술한 예에 한정되지 아니하고, 기술의 발전에 따라 새롭게 등장하는 통신 방식을 포함할 수 있다.The communication unit 160 is a Wi-Fi chip using a Wi-Fi (Wi-Fi) communication method, a Bluetooth chip using a Bluetooth communication method, an NFC chip using a near field communication (NFC) communication method, a mobile communication method (eg : Infrared communication using a wireless communication chip and infrared communication method using long-term evolution (LTE), LTE Advance (LTE-A), 5th generation (5G), code division multiple access (CDMA), wideband CDMA (WCDMA)) It may include at least one of the chips. Furthermore, the communication unit 160 may include at least one of an Ethernet module (not shown) and a USB module (not shown) for performing wired communication. Here, the communication unit 160 may include a network interface or a network chip according to a wired/wireless communication method. On the other hand, the communication method of the communication unit 160 is not limited to the above-described example, and may include a communication method that appears newly according to the development of technology.
입력 인터페이스(170)는 다양한 사용자 입력을 수신하여 프로세서(140)로 전달할 수 있다. 입력 인터페이스(170)는 예를 들면, 터치 패널(미도시), 펜 센서(미도시), 키(미도시) 및 마이크(미도시) 중에서 적어도 하나를 포함할 수 있다. 터치 패널은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있으며, 이를 위해 터치 패널은 제어 회로를 포함할 수도 있다. 터치 패널은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. 펜 센서는 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 마이크는 사용자의 음성을 직접 수신할 수 있으며, 디지털 변환부(미도시)에 의해 아날로그 신호인 사용자의 음성을 디지털로 변환하여 오디오 신호를 획득할 수 있다. 이와 같은 입력 인터페이스(170)는 전자 장치(100)에 내장되거나 키보드, 마우스, 외부 마이크, 리모트 컨트롤 등과 같은 별도의 외부 장치(미도시)로 구현될 수 있다.The input interface 170 may receive various user inputs and transmit them to the processor 140 . The input interface 170 may include, for example, at least one of a touch panel (not shown), a pen sensor (not shown), a key (not shown), and a microphone (not shown). The touch panel may use, for example, at least one of a capacitive type, a pressure-sensitive type, an infrared type, and an ultrasonic type, and for this, the touch panel may include a control circuit. The touch panel may further include a tactile layer to provide a tactile response to the user. The pen sensor may be, for example, a part of the touch panel or may include a separate recognition sheet. The key may include, for example, a physical button, an optical key, or a keypad. The microphone may directly receive the user's voice, and digitally convert the user's voice, which is an analog signal, by a digital converter (not shown) to obtain an audio signal. Such an input interface 170 may be embedded in the electronic device 100 or implemented as a separate external device (not shown) such as a keyboard, mouse, external microphone, remote control, or the like.
도 5 내지 도 11은 본 개시의 일 실시 예에 따른 AR 객체를 이미지에 추가하는 방법을 설명하기 위한 도면이다. 5 to 11 are diagrams for explaining a method of adding an AR object to an image according to an embodiment of the present disclosure.
도 5를 참조하면, 전자 장치(100)의 프로세서(130)는 카메라(110)를 통해 획득된 이미지(520)를 표시하도록 디스플레이(120)를 제어할 수 있다. 이때, 이미지(520)는 카메라(110)를 통해 촬영된 피사체를 포함할 수 있으며, 여기서 피사체는 카메라(110)의 시점에서 화각 내에 위치하는 현실의 환경(510)(공간 또는 사물)을 포함할 수 있다.Referring to FIG. 5 , the processor 130 of the electronic device 100 may control the display 120 to display an image 520 acquired through the camera 110 . In this case, the image 520 may include a subject photographed through the camera 110 , where the subject may include a real environment 510 (space or object) located within the angle of view from the viewpoint of the camera 110 . can
이 경우, 프로세서(130)는 SLAM 기반의 카메라(110)의 추적 기술을 이용하여 이미지(520)에 포함된 복수의 픽셀 각각을 뎁스를 포함하는 3차원 공간 좌표로 인식할 수 있다. 즉, 프로세서(130)는 이미지를 3차원 공간으로 인식할 수 있다. 나아가, 프로세서(130)는 카메라(110)를 통해 순차적으로 획득된 복수의 이미지(520)를 3차원 공간의 맵으로 생성하여 메모리(150)에 저장할 수도 있다. In this case, the processor 130 may recognize each of a plurality of pixels included in the image 520 as 3D spatial coordinates including a depth by using the SLAM-based tracking technology of the camera 110 . That is, the processor 130 may recognize the image as a three-dimensional space. Furthermore, the processor 130 may generate a plurality of images 520 sequentially acquired through the camera 110 as a map of a three-dimensional space and store it in the memory 150 .
그리고, 프로세서(130)는 배치 모드를 선택할 수 있는 UI(530, 550)를 표시하도록 디스플레이(120)를 제어할 수 있다. 여기서, 제1 및 제2 UI(530, 550)를 선택하는 사용자 명령이 수신되면 전자 장치(100)의 모드는 배치 모드로 설정될 수 있다.In addition, the processor 130 may control the display 120 to display UIs 530 and 550 for selecting the arrangement mode. Here, when a user command to select the first and second UIs 530 and 550 is received, the mode of the electronic device 100 may be set to the arrangement mode.
여기서, 프로세서(130)는 도 5와 같이 제1 UI(530)가 표시된 위치를 선택하는 사용자 명령이 수신되면, 도 6과 같이 전자 장치(100)의 모드를 배치 모드 중 추가 모드로 설정하고, 기저장된 복수의 AR 객체(631-633)에 대한 리스트를 디스플레이(120)에 표시할 수 있다. 한편, 프로세서(130)는 도 5에서 제2 UI(550)가 표시된 위치를 선택하는 사용자 명령이 수신되면, 전자 장치(100)의 모드를 배치 모드 중 편집 모드로 설정하고, 사용자 명령에 따라 이미지 상에 표시된 AR 객체 중에서 하나의 AR 객체의 위치 등을 변경할 수 있다. 이에 대한 구체적인 내용은 도 12 내지 도 13c를 참조하여 후술하여 설명하기로 한다.Here, when a user command for selecting a position where the first UI 530 is displayed as shown in FIG. 5 is received, the processor 130 sets the mode of the electronic device 100 as an additional mode among the arrangement modes as shown in FIG. 6 , A list of a plurality of pre-stored AR objects 631-633 may be displayed on the display 120 . Meanwhile, when a user command for selecting a position where the second UI 550 is displayed in FIG. 5 is received, the processor 130 sets the mode of the electronic device 100 to the edit mode among the batch modes, and sets the image according to the user command. The position of one AR object among the AR objects displayed on the image may be changed. Specific details thereof will be described later with reference to FIGS. 12 to 13C .
이때, 복수의 AR 객체(631-633)는 메모리(140)에 기저장된 AR 객체로서, 렌더링 이미지 또는 텍스트 입력이 가능한 텍스트 박스 등일 수 있다. 예를 들어, AR 객체는 TV, 디지털 액자, 사운드 바, 냉장고, 세탁기, 가구, 자동차, 건물, 나무 등과 같은 사물이 2차원 또는 3차원으로 렌더링 된 이미지, 텍스트, 문자, 이미지, 사진, 동영상, 문서, 대시보드(dashboard) 등과 같은 다양한 정보의 형태일 수 있다. In this case, the plurality of AR objects 631 - 633 are AR objects pre-stored in the memory 140 , and may be a rendered image or a text box capable of inputting text. For example, AR objects are objects such as TVs, digital picture frames, sound bars, refrigerators, washing machines, furniture, cars, buildings, trees, etc. that are rendered in 2D or 3D images, text, text, images, photos, videos, etc. It may be in the form of various information such as documents, dashboards, and the like.
다시, 도 6을 참조하여, 프로세서(130)는 복수의 AR 객체(631-633)에 대한 리스트 중에서 제3 AR 객체(633)을 선택하는 사용자 명령이 수신되면, 도 7과 같이 제3 AR 객체(733)를 이미지(720) 상에 표시하도록 디스플레이(120)를 제어할 수 있다. 여기서, 추가된 AR 객체(733)는 기설정된 크기로 표시될 수 있다. 즉, AR 객체(733)에 대한 원근법이 무시될 수 있다. Referring again to FIG. 6 , when a user command for selecting a third AR object 633 from a list of a plurality of AR objects 631-633 is received, the processor 130 receives a third AR object as shown in FIG. 7 . The display 120 may be controlled to display 733 on the image 720 . Here, the added AR object 733 may be displayed with a preset size. That is, the perspective for the AR object 733 may be ignored.
이 경우, 도 7을 참조하면, 디스플레이(120)에 표시되는 AR 객체(733)는 텍스트 박스일 수 있으며, AR 객체(733)는 사용자 명령에 따라 입력된 텍스트를 포함할 수 있다.In this case, referring to FIG. 7 , the AR object 733 displayed on the display 120 may be a text box, and the AR object 733 may include text input according to a user command.
한편, 도 8을 참조하면, 프로세서(130)는 추가 모드에서 이미지(820) 상에 추가된 AR 객체(833)가 위치하는 지점을 사용자 명령(예: 터치 드래그 등)에 따라 변경할 수 있다. 이때, AR 객체(833)가 위치하는 지점은 사용자 명령에 따라 이미지(820) 내 3차원 공간 축(x, y, z축)을 따라 이동될 수 있다. 여기서, z축 방향(뎁스 방향)에 따라 AR 객체(833)가 이동하여 AR 객체(833)에 대한 뎁스가 변경되는 경우에도 원근법이 무시될 수 있다.Meanwhile, referring to FIG. 8 , the processor 130 may change a point at which the AR object 833 added on the image 820 is located in the addition mode according to a user command (eg, touch drag, etc.). In this case, the point at which the AR object 833 is located may be moved along the 3D space axis (x, y, z axis) in the image 820 according to a user command. Here, even when the depth of the AR object 833 is changed by moving the AR object 833 in the z-axis direction (depth direction), perspective may be ignored.
한편, 도 9를 참조하면, 프로세서(130)는 추가 모드에서 이미지(920) 상에 추가된 AR 객체(933)의 기설정된 크기를 사용자 명령(예: 핀치줌) 에 따라 변경할 수 있다. 이 경우, AR 객체(933)가 디스플레이(120) 상에 표시되는 크기는 사용자 명령에 따라 변경될 수 있다. Meanwhile, referring to FIG. 9 , the processor 130 may change the preset size of the AR object 933 added to the image 920 in the addition mode according to a user command (eg, pinch zoom). In this case, the size of the AR object 933 displayed on the display 120 may be changed according to a user command.
그리고, 도 10을 참조하면, 프로세서(130)는 추가 모드에서 이미지(1020) 상에 추가된 AR 객체(1033)에 대한 사용자 명령(예: 기설정된 시간 이상의 터치)이 수신되면, AR 객체(1033)에 대한 속성을 할당하는 UI(1035) 및 AR 객체(1033)를 삭제하는 UI(1037)를 표시하도록 디스플레이(120)를 제어할 수 있다. And, referring to FIG. 10 , when a user command (eg, a touch longer than a preset time) for the AR object 1033 added to the image 1020 is received in the addition mode, the processor 130 receives the AR object 1033 . ), the display 120 may be controlled to display a UI 1035 for allocating properties and a UI 1037 for deleting the AR object 1033 .
여기서, 프로세서(130)는 AR 객체(1033)에 대한 속성을 할당하는 UI(1035)를 선택하는 사용자 명령이 수신되면, AR 객체(1033)에 대한 속성을 크기가 고정되는 속성 및 크기가 변동되는 속성 중 하나를 선택하기 위한 UI를 디스플레이(120)에 표시하도록 제어할 수 있다. 여기서, 사용자 명령에 따라 AR 객체에 할당된 속성이 변경될 수 있다. Here, when a user command for selecting a UI 1035 for allocating a property for the AR object 1033 is received, the processor 130 sets the property for the AR object 1033 to a fixed size property and a variable size property. A UI for selecting one of the properties may be controlled to be displayed on the display 120 . Here, the attribute assigned to the AR object may be changed according to a user command.
이와 달리, 프로세서(130)는 AR 객체(1033)를 삭제하는 UI(1037)를 선택하는 사용자 명령이 수신되면, 이미지(1020) 상에 표시된 AR 객체(1033)를 제거(또는 삭제)할 수 있다. Alternatively, when a user command for selecting the UI 1037 for deleting the AR object 1033 is received, the processor 130 may remove (or delete) the AR object 1033 displayed on the image 1020 . .
한편, 도 7내지 도 11을 참조하면, 프로세서(130)는 사용자 명령에 따라 추가된 AR 객체(733, 833, 933, 1033, 1133)를 설정된 상태(크기, 위치, 속성 등)로 일반 모드에서 표시하도록 설정된 상태를 저장하는 제1 UI(740, 840, 940, 1040, 1140) 및 사용자 명령에 따라 추가된 AR 객체(733, 833, 933, 1033, 1133)를 일반 모드에서 표시하지 않도록 취소하는 제2 UI(770, 870, 970, 1070, 1170)를 표시하도록 디스플레이(120)를 제어할 수 있다. Meanwhile, referring to FIGS. 7 to 11 , the processor 130 sets the AR objects 733 , 833 , 933 , 1033 , 1133 added according to a user command to a set state (size, location, properties, etc.) in the normal mode. The first UI (740, 840, 940, 1040, 1140) that saves the state set to be displayed and the AR object (733, 833, 933, 1033, 1133) added according to the user's command can be canceled from being displayed in normal mode. The display 120 may be controlled to display the second UIs 770 , 870 , 970 , 1070 , and 1170 .
여기서, 프로세서(130)는 제1 UI(740, 840, 940, 1040, 1140)를 선택하는 사용자 명령에 따라 전자 장치(100)의 모드를 일반 모드로 진입하고, 일반 모드에서 추가된 AR 객체(733, 833, 933, 1033, 1133)를 설정된 상태에 따라 표시하도록 디스플레이(120)를 제어할 수 있다. Here, the processor 130 enters the mode of the electronic device 100 into the normal mode according to a user command to select the first UI 740 , 840 , 940 , 1040 , 1140 , and an AR object ( The display 120 may be controlled to display 733 , 833 , 933 , 1033 , and 1133 according to a set state.
이와 달리, 프로세서(130)는 제2 UI(770, 870, 970, 1070, 1170)를 선택하는 사용자 명령에 따라 전자 장치(100)의 모드를 일반 모드로 진입하고, 일반 모드에서 AR 객체(733, 833, 933, 1033, 1133)가 표시되지 않도록 AR 객체(733, 833, 933, 1033, 1133)를 제거(또는 삭제)할 수 있다. In contrast, the processor 130 enters the mode of the electronic device 100 into the normal mode according to a user command for selecting the second UI 770 , 870 , 970 , 1070 , and 1170 , and the AR object 733 in the normal mode , 833 , 933 , 1033 , 1133 may be removed (or deleted) from the AR objects 733 , 833 , 933 , 1033 , and 1133 so that they are not displayed.
도 12 내지 도 13c는 본 개시의 일 실시 예에 따른 배치 모드를 설명하기 위한 도면이다. 12 to 13C are diagrams for explaining an arrangement mode according to an embodiment of the present disclosure.
도 12를 참조하면, 전자 장치(100)의 프로세서(130)는 배치 모드를 선택할 수 있는 UI(1230, 1250)를 표시하도록 디스플레이(120)를 제어할 수 있다. Referring to FIG. 12 , the processor 130 of the electronic device 100 may control the display 120 to display UIs 1230 and 1250 for selecting a layout mode.
여기서, 프로세서(130)는 제1 UI(1230)를 선택하는 사용자 명령이 수신되면 전자 장치(100)의 모드는 배치 모드 중에서 추가 모드로 설정(또는 진입)할 수 있으며, 이에 대한 설명은 도 5 내지 도 11에서 전술한 바 있다.Here, when a user command for selecting the first UI 1230 is received, the processor 130 may set (or enter) the mode of the electronic device 100 as an additional mode from among the batch modes, and a description thereof is shown in FIG. 5 . It has been described above with reference to FIGS.
이와 달리, 프로세서(130)는 제2 UI(1250)를 선택하는 사용자 명령이 수신되면 전자 장치(100)의 모드는 배치 모드 중에서 편집 모드로 설정(또는 진입)할 수 있다. 이 경우, 프로세서(130)는 디스플레이(120)에 표시된 이미지(1220) 및 AR 객체(1233) 중에서 사용자 명령에 따라 AR 객체(1233)의 배치를 변경할 수 있다. On the contrary, when a user command for selecting the second UI 1250 is received, the processor 130 may set (or enter) the mode of the electronic device 100 from the arrangement mode to the edit mode. In this case, the processor 130 may change the arrangement of the AR object 1233 among the image 1220 and the AR object 1233 displayed on the display 120 according to a user command.
도 13a 내지 도 13c를 참조하면, 배치 모드에서 AR 객체(1333A, 1333B) 사용자 명령에 따라 이미지(1320A, 1320B) 상에 위치하는 지점이 변경될 수 있다. 13A to 13C , in the arrangement mode, points located on the images 1320A and 1320B may be changed according to a user command of the AR objects 1333A and 1333B.
예를 들어, 도 13a 및 도 13c와 같이, 배치 모드에서 AR 객체(1333A)가 위치하는 지점이 사용자 명령에 따라 뎁스가 감소하는 지점으로 이동되면, 프로세서(130)는 이미지(1320A) 상에 AR 객체(1333A)가 표시되는 크기가 유지되도록 AR 객체(1333A)의 기설정된 크기를 감소시킬 수 있다. For example, as shown in FIGS. 13A and 13C , when the point where the AR object 1333A is located in the arrangement mode is moved to a point where the depth decreases according to a user command, the processor 130 displays the AR on the image 1320A. The preset size of the AR object 1333A may be decreased so that the displayed size of the object 1333A is maintained.
이와 다른 예를 들어, 도 13b 및 도 13c와 같이, 배치 모드에서 AR 객체(1333B)가 위치하는 지점이 사용자 명령에 따라 뎁스가 증가하는 지점으로 이동되면, 프로세서(130)는 이미지(1320B) 상에 AR 객체(1333B)가 표시되는 크기가 유지되도록 AR 객체(1333B)의 기설정된 크기를 증가시킬 수 있다. For another example, as shown in FIGS. 13B and 13C , when the point at which the AR object 1333B is located in the arrangement mode is moved to a point at which the depth increases according to a user command, the processor 130 displays the image 1320B on the image 1320B. The preset size of the AR object 1333B may be increased so that the size at which the AR object 1333B is displayed is maintained.
한편, 상술한 도 13a 및 도 13b와 같은 경우에, 프로세서(130)는 디스플레이(120)에 AR 객체(1333A, 1333B)가 표시되는 크기를 도 12의 디스플레이(120)에 AR 객체(1233)가 표시되는 크기로 유지하도록 제어할 수 있다. 즉, 디스플레이(120)에 표시되는 AR 객체(1333A, 1333B)의 크기는 편집 모드로 설정되는 때의 디스플레이(120)에 표시되는 AR 객체(1233)의 크기로 유지될 수 있다.On the other hand, in the case of the aforementioned FIGS. 13A and 13B , the processor 130 determines the size at which the AR objects 1333A and 1333B are displayed on the display 120 and the AR object 1233 is displayed on the display 120 of FIG. 12 . You can control it to stay at the displayed size. That is, the size of the AR objects 1333A and 1333B displayed on the display 120 may be maintained as the size of the AR object 1233 displayed on the display 120 when the edit mode is set.
이와 같이, 본 개시의 일 실시 예에 따른 배치 모드에서는 뎁스에 기반한 AR 객체의 고유의 크기를 변경함으로써, 원근법에 의해 크기가 변경되는 효과를 상쇄할 수 있다. As such, in the arrangement mode according to an embodiment of the present disclosure, by changing the intrinsic size of the AR object based on the depth, the effect of changing the size by perspective may be offset.
도 14 내지 도 15b는 본 개시의 일 실시 예에 따른 일반 모드를 설명하기 위한 도면이다.14 to 15B are diagrams for explaining a normal mode according to an embodiment of the present disclosure.
도 14를 참조하면, 전자 장치(100)의 프로세서(130)는 전자 장치(100)가 일반 모드로 설정된 경우에, 카메라(110)를 통해 획득된 이미지(1420) 및 AR 객체(1431, 1432)를 표시하도록 디스플레이(120)를 제어할 수 있다. 여기서, AR 객체(1431, 1432)는 상술한 배치 모드를 통해 이미지(1420) 상에 배치된 것일 수 있다. Referring to FIG. 14 , when the electronic device 100 is set to the normal mode, the processor 130 of the electronic device 100 obtains an image 1420 and AR objects 1431 and 1432 obtained through the camera 110 . The display 120 may be controlled to display . Here, the AR objects 1431 and 1432 may be arranged on the image 1420 through the above-described arrangement mode.
여기서, 도 14와 같은 상태의 전자 장치(100)가 도 15a 및 도 15b와 같이 뎁스가 변경되는 지점으로 이동되는 경우를 가정하여 설명하기로 한다. 이때, 제1 AR 객체(1531A, 1531B)는 크기가 변동되는 속성이 할당되고, 제2 AR 객체(1532A, 1532B)는 크기가 고정되는 속성이 할당된 것으로 가정한다.Here, it is assumed that the electronic device 100 in the state shown in FIG. 14 is moved to a point where the depth is changed as shown in FIGS. 15A and 15B . In this case, it is assumed that the first AR objects 1531A and 1531B are assigned with a variable size attribute, and the second AR objects 1532A and 1532B are assigned with a fixed size attribute.
예를 들어, 도 15a와 같이, 카메라(110)를 구비한 전자 장치(100)가 카메라(110)를 통해 획득된 이미지(1520A) 상에 위치한 제1 및 제2 AR 객체(1531A, 1532A)의 뎁스가 감소하는 방향으로 이동되면(즉, 전자 장치(100)가 피사체와 가까워지는 경우), 프로세서(130)는 제1 및 제2 AR 객체(1531A, 1532A) 각각에 할당된 속성을 판단할 수 있다. For example, as shown in FIG. 15A , the first and second AR objects 1531A and 1532A located on the image 1520A obtained by the electronic device 100 having the camera 110 through the camera 110 are shown in FIG. 15A . When the depth is moved in a decreasing direction (ie, when the electronic device 100 approaches the subject), the processor 130 may determine a property assigned to each of the first and second AR objects 1531A and 1532A. have.
이 경우, 프로세서(130)는 크기가 변동되는 속성이 할당된 제1 AR 객체(1531A)에 대해, 뎁스가 감소함에 따라 이미지(1520A) 상에 제1 AR 객체(1531A)가 표시되는 크기를 증가시키도록 제1 AR 객체(1531A)를 조정할 수 있다.In this case, the processor 130 increases the size at which the first AR object 1531A is displayed on the image 1520A as the depth decreases with respect to the first AR object 1531A to which the property whose size is changed is assigned. The first AR object 1531A may be adjusted to
또한, 프로세서(130)는 크기가 고정되는 속성이 할당된 제2 AR 객체(1532A)에 대해, 이미지(1520A) 상에 제2 AR 객체(1532A)가 표시되는 크기가 유지되도록 뎁스가 감소함에 따른 제2 AR 객체(1532A)의 기설정된 크기를 감소시키도록 제2 AR 객체(1532A)를 조정할 수 있다. Also, with respect to the second AR object 1532A to which the property to which the size is fixed is assigned, the processor 130 is configured to maintain the size at which the second AR object 1532A is displayed on the image 1520A. The second AR object 1532A may be adjusted to reduce a preset size of the second AR object 1532A.
이와 다른 예를 들어, 도 15b와 같이, 카메라(110)를 구비한 전자 장치(100)가 카메라(110)를 통해 획득된 이미지(1520B) 상에 위치한 제1 및 제2 AR 객체(1531B, 1532B)의 뎁스가 증가하는 방향으로 이동되면(즉, 전자 장치(100)가 피사체와 멀어지는 경우), 프로세서(130)는 제1 및 제2 AR 객체(1531B, 1532B) 각각에 할당된 속성을 판단할 수 있다. As another example, as shown in FIG. 15B , the first and second AR objects 1531B and 1532B located on the image 1520B obtained by the electronic device 100 having the camera 110 through the camera 110 , as shown in FIG. 15B . ) is moved in an increasing direction (ie, when the electronic device 100 moves away from the subject), the processor 130 determines a property assigned to each of the first and second AR objects 1531B and 1532B. can
이 경우, 프로세서(130)는 크기가 변동되는 속성이 할당된 제1 AR 객체(1531B)에 대해, 뎁스가 증가함에 따라 이미지(1520B) 상에 제1 AR 객체(1531B)가 표시되는 크기를 감소시키도록 조정할 수 있다.In this case, the processor 130 decreases the size of the first AR object 1531B displayed on the image 1520B as the depth increases with respect to the first AR object 1531B to which the property whose size is changed is assigned. can be adjusted to make it
또한, 프로세서(130)는 크기가 고정되는 속성이 할당된 제2 AR 객체(1532B)에 대해, 이미지(1520B) 상에 제2 AR 객체(1532B)가 표시되는 크기가 유지되도록 뎁스가 증가함에 따른 제2 AR 객체(1532B)의 기설정된 크기를 증가하도록 조정할 수 있다. In addition, the processor 130 controls the size of the second AR object 1532B to which the property to be fixed in size is assigned so that the size at which the second AR object 1532B is displayed on the image 1520B is maintained. It may be adjusted to increase the preset size of the second AR object 1532B.
이상과 같이, 본 개시의 일 실시 예에 따르면 일반 모드에서 AR 객체에 할당된 속성에 따라 제1 AR 객체(1531A)에 대해서는 원근법이 적용되며, 제2 AR 객체(1532A)에 대해서는 원근법이 무시될 수 있다.As described above, according to an embodiment of the present disclosure, perspective is applied to the first AR object 1531A, and perspective is ignored to the second AR object 1532A according to the attribute assigned to the AR object in the normal mode. can
도 16은 본 개시의 일 실시 예에 따른 흐름도를 설명하기 위한 도면이다.16 is a diagram for describing a flowchart according to an embodiment of the present disclosure.
도 16을 참조하면, 먼저 본 개시의 일 실시 예에 따른 전자 장치(100)의 제어 방법은, 카메라(110)를 통해 획득된 이미지 및 이미지 상에 AR 객체를 표시하는 단계(S1610), 전자 장치(100)의 모드가 일반 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스(depth)가 변경되면, 변경되는 뎁스에 기초하여 AR 객체가 표시되는 크기를 조정하는 단계(S1620) 및 전자 장치(100)의 모드가 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, AR 객체가 표시되는 크기를 유지하도록 제어하는 단계(S1630)를 포함한다.Referring to FIG. 16 , the control method of the electronic device 100 according to an embodiment of the present disclosure includes an image acquired through the camera 110 and displaying an AR object on the image ( S1610 ), the electronic device When the depth of the point where the AR object is located on the image is changed in the state in which the mode of (100) is the normal mode, adjusting the size of the AR object is displayed based on the changed depth (S1620) and the former In a state in which the mode of the device 100 is the arrangement mode, if the depth of the point where the AR object is located on the image is changed, controlling to maintain the size at which the AR object is displayed ( S1630 ) is included.
보다 구체적으로, 먼저 카메라(110)를 통해 획득된 이미지 및 이미지 상에 AR 객체를 표시할 수 있다(S1610). 여기에서, AR 객체의 크기에 기초하여 카메라(110)를 통해 획득된 이미지 및 이미지 상에 AR 객체를 표시할 수 있다. 이때, AR 객체의 크기는 각 AR 객체마다 표준 뎁스에서 표시되는 크기가 디폴트로 설정된 것이며, 모드에 따라 변경될 수 있다. 또한, 크기는 넓이, 부피, 대각선 길이, 가로 및 세로 길이, 반지름, 지름 등 다양한 개념을 총칭할 수 있다.More specifically, the AR object may be displayed on the image and the image acquired through the camera 110 first (S1610). Here, the AR object may be displayed on the image and the image acquired through the camera 110 based on the size of the AR object. In this case, the size of the AR object is set to a size displayed at the standard depth for each AR object as a default, and may be changed according to the mode. In addition, the size may collectively refer to various concepts such as area, volume, diagonal length, horizontal and vertical length, radius, and diameter.
이후, 전자 장치(100)의 모드가 일반 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스(depth)가 변경되면, 변경되는 뎁스에 기초하여 AR 객체가 표시되는 크기를 조정할 수 있다(S1620). Thereafter, when the depth of the point where the AR object is located on the image is changed while the mode of the electronic device 100 is the normal mode, the size at which the AR object is displayed may be adjusted based on the changed depth ( S1620).
이 경우, AR 객체가 위치하는 지점의 뎁스는 뎁스 방향에 따라 카메라(110)가 위치하는 지점이 이동됨에 따라 변경될 수 있다.In this case, the depth of the point where the AR object is positioned may be changed as the point where the camera 110 is positioned is moved according to the depth direction.
여기에서, 조정하는 단계는 일반 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스 및 AR 객체에 할당된 속성에 기초하여, AR 객체가 표시되는 크기를 조정할 수 있다.Here, in the adjusting step, in the normal mode, the size at which the AR object is displayed may be adjusted based on the depth of the point where the AR object is located and the property assigned to the AR object.
일 실시 예로서, 조정하는 단계는 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우 AR 객체가 표시되는 크기가 유지되도록 제어하고, AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우 변경되는 뎁스에 기초하여 AR 객체가 표시되는 크기가 변경되도록 조정할 수 있다.As an embodiment, in the adjusting step, in the normal mode, when the property assigned to the AR object is a property with a fixed size, the size at which the AR object is displayed is maintained, and the size of the property assigned to the AR object is changed. In the case of a variable property, the size at which the AR object is displayed may be adjusted based on the changed depth.
일 실시 예로서, 여기에서, 조정하는 단계는 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우, 이미지 상에서 AR 객체의 뎁스가 변경되면 AR 객체가 표시되는 크기가 유지되도록 제어할 수 있다.As an embodiment, in the step of adjusting, in the normal mode, if the property assigned to the AR object has a fixed size, and the depth of the AR object on the image is changed, the size at which the AR object is displayed is maintained. can be controlled as much as possible.
일 실시 예로서, 조정하는 단계는 일반 모드인 상태에서, AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 증가하면 크기가 감소하도록 AR 객체가 표시되는 크기를 조정하고, AR 객체가 위치하는 지점의 뎁스가 감소하면 크기가 증가하도록 AR 객체가 표시되는 크기를 조정할 수 있다.As an embodiment, in the adjusting step, in the normal mode, if the property assigned to the AR object is a property whose size changes, the AR object is adjusted so that the size decreases when the depth of the point where the AR object is located on the image increases. The displayed size may be adjusted, and the displayed size of the AR object may be adjusted so that the size increases when the depth of the point where the AR object is located decreases.
이후, 전자 장치(100)의 모드가 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, AR 객체가 표시되는 크기를 유지하도록 제어할 수 있다(S1630). Thereafter, when the depth of the point at which the AR object is located on the image is changed in a state in which the mode of the electronic device 100 is the arrangement mode, control may be performed to maintain the size at which the AR object is displayed ( S1630 ).
이 경우, AR 객체가 위치하는 지점의 뎁스는 뎁스 방향에 따라 카메라(110)가 위치하는 지점 또는 이미지 상에서 AR 객체가 위치하는 지점이 이동됨에 따라 변경될 수 있다.In this case, the depth of the point at which the AR object is positioned may be changed as the point at which the camera 110 is positioned or the point at which the AR object is positioned on the image is moved according to the depth direction.
여기에서, 배치 모드인 상태에서, 이미지 상에서 AR 객체가 위치하는 지점의 뎁스가 변경되면, AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 변경할 수 있다.Here, in the arrangement mode, if the depth of the point where the AR object is located on the image is changed, the size of the AR object may be changed to maintain the size at which the AR object is displayed.
일 실시 예로서, 제어하는 단계는 배치 모드인 상태에서, AR 객체가 위치하는 지점의 뎁스가 증가하면 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 증가시키고, AR 객체가 위치하는 지점의 뎁스가 감소하면 AR 객체가 표시되는 크기를 유지하도록 AR 객체의 크기를 감소시킬 수 있다.As an embodiment, the controlling may include increasing the size of the AR object so as to maintain the displayed size of the AR object when the depth of the point where the AR object is located increases in the arrangement mode, and increasing the size of the point where the AR object is located. When the depth decreases, the size of the AR object can be reduced to maintain the size at which the AR object is displayed.
본 개시의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(100))를 포함할 수 있다. 상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 상기하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present disclosure may be implemented as software including instructions stored in a machine-readable storage medium readable by a machine (eg, a computer). The device calls the stored instructions from the storage medium. and an electronic device (eg, the electronic device 100) according to the disclosed embodiments as a device capable of operating according to the called command. When the command is executed by the processor, the processor directly or the The function described in the instruction may be performed using other components under the control of the processor. The instruction may include code generated or executed by a compiler or an interpreter. A machine-readable storage medium is a non-transitory It may be provided in the form of a (non-transitory) storage medium, where 'non-transitory' means that the storage medium does not include a signal and is tangible, but data is semi-permanent or temporary in the storage medium It does not distinguish that it is stored as
다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.The method according to various embodiments may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as merchandise. The computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play Store™). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 상기 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 상기 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components (eg, a module or a program) according to various embodiments may be composed of a singular or a plurality of entities, and some sub-components of the above-described sub-components may be omitted, or other sub-components may be various. It may be further included in the embodiment. Alternatively or additionally, some components (eg, a module or a program) may be integrated into a single entity to perform the same or similar functions performed by each of the components before being integrated. According to various embodiments, operations performed by a module, program, or other component may be sequentially, parallel, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added. can

Claims (14)

  1. 전자 장치에 있어서,In an electronic device,
    카메라;camera;
    디스플레이; 및display; and
    상기 카메라를 통해 획득된 이미지 및 상기 이미지 상에 AR 객체를 표시하도록 상기 디스플레이를 제어하고,controlling the display to display an image acquired through the camera and an AR object on the image,
    상기 전자 장치의 모드가 일반 모드인 상태에서, 상기 이미지 상에서 상기 AR 객체가 위치하는 지점의 뎁스(depth)가 변경되면, 상기 변경되는 뎁스에 기초하여 상기 디스플레이에 상기 AR 객체가 표시되는 크기를 조정하고,When the depth of the point where the AR object is located on the image is changed while the mode of the electronic device is the normal mode, the size of the AR object displayed on the display is adjusted based on the changed depth and,
    상기 전자 장치의 모드가 배치 모드인 상태에서, 상기 이미지 상에서 상기 AR 객체가 위치하는 지점의 뎁스가 변경되면, 상기 디스플레이에 상기 AR 객체가 표시되는 크기를 유지하도록 제어하는 프로세서;를 포함하는 전자 장치.Electronic device comprising a; if the depth of the point where the AR object is located on the image is changed in a state in which the mode of the electronic device is the arrangement mode, the processor controls to maintain the size at which the AR object is displayed on the display; .
  2. 제1항에 있어서,According to claim 1,
    상기 AR 객체가 위치하는 지점의 뎁스는, The depth of the point where the AR object is located is,
    뎁스 방향에 따라 상기 카메라가 위치하는 지점 또는 상기 이미지 상에서 상기 AR 객체가 위치하는 지점이 이동됨에 따라 변경되는, 전자 장치.The electronic device is changed as a point at which the camera is positioned or a point at which the AR object is positioned on the image is moved according to a depth direction.
  3. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 AR 객체의 크기에 기초하여 상기 이미지 및 상기 이미지 상에 상기 AR 객체를 표시하도록 상기 디스플레이를 제어하고,Control the display to display the AR object on the image and the image based on the size of the AR object,
    상기 배치 모드인 상태에서, 상기 이미지 상에서 상기 AR 객체가 위치하는 지점의 뎁스가 변경되면, 상기 디스플레이에 상기 AR 객체가 표시되는 크기를 유지하도록 상기 AR 객체의 크기를 변경하는, 전자 장치.In the arrangement mode, when the depth of the point where the AR object is located on the image is changed, the size of the AR object is changed to maintain the size at which the AR object is displayed on the display.
  4. 제3항에 있어서,4. The method of claim 3,
    상기 프로세서는,The processor is
    상기 전자 장치의 모드가 배치 모드인 상태에서, 상기 AR 객체가 위치하는 지점의 뎁스가 증가하면 상기 디스플레이에 상기 AR 객체가 표시되는 크기를 유지하도록 상기 AR 객체의 크기를 증가시키고, 상기 AR 객체가 위치하는 지점의 뎁스가 감소하면 상기 디스플레이에 상기 AR 객체가 표시되는 크기를 유지하도록 상기 AR 객체의 크기를 감소시키는, 전자 장치.When the depth of the point at which the AR object is located increases while the mode of the electronic device is the arrangement mode, the size of the AR object is increased to maintain the size at which the AR object is displayed on the display, and the AR object is The electronic device of claim 1, wherein when the depth of the location decreases, the size of the AR object is reduced to maintain the size at which the AR object is displayed on the display.
  5. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor is
    상기 AR 객체의 크기에 기초하여 상기 이미지 및 상기 이미지 상에 상기 AR 객체를 표시하도록 상기 디스플레이를 제어하고,Control the display to display the AR object on the image and the image based on the size of the AR object,
    상기 전자 장치의 모드가 일반 모드인 상태에서, 상기 AR 객체가 위치하는 지점의 뎁스 및 상기 AR 객체에 할당된 속성에 기초하여, 상기 디스플레이에 상기 AR 객체가 표시되는 크기를 조정하는, 전자 장치.Adjusting a size at which the AR object is displayed on the display based on a depth of a point where the AR object is located and a property assigned to the AR object in a state in which the mode of the electronic device is a normal mode.
  6. 제5항에 있어서,6. The method of claim 5,
    상기 프로세서는,The processor is
    상기 전자 장치의 모드가 일반 모드인 상태에서, 상기 AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우 상기 디스플레이에 상기 AR 객체가 표시되는 크기가 유지되도록 제어하고, 상기 AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우 상기 변경되는 뎁스에 기초하여 상기 디스플레이에 상기 AR 객체가 표시되는 크기가 변경되도록 조정하는, 전자 장치.In a state in which the mode of the electronic device is a normal mode, if the attribute assigned to the AR object is a fixed size attribute, control to maintain the size at which the AR object is displayed on the display, and the attribute assigned to the AR object If the size is a variable property, adjusting the size of the AR object displayed on the display to be changed based on the changed depth.
  7. 제6항에 있어서,7. The method of claim 6,
    상기 프로세서는,The processor is
    상기 전자 장치의 모드가 일반 모드인 상태에서, 상기 AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우, 상기 이미지 상에서 상기 AR 객체의 뎁스가 변경되면 상기 디스플레이에 상기 AR 객체가 표시되는 크기가 유지되도록 제어하고,In a state in which the mode of the electronic device is the normal mode, when the attribute assigned to the AR object is a fixed size attribute, the size at which the AR object is displayed on the display is changed when the depth of the AR object is changed on the image. control to keep
    상기 전자 장치의 모드가 일반 모드인 상태에서, 상기 AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우, 상기 이미지 상에서 상기 AR 객체가 위치하는 지점의 뎁스가 증가하면 크기가 감소하도록 상기 디스플레이에 상기 AR 객체가 표시되는 크기를 조정하고, 상기 AR 객체가 위치하는 지점의 뎁스가 감소하면 크기가 증가하도록 상기 디스플레이에 상기 AR 객체가 표시되는 크기를 조정하는, 전자 장치.In a state in which the mode of the electronic device is the normal mode, when the property assigned to the AR object is a property whose size changes, the display is displayed on the display so that the size decreases when the depth of the point where the AR object is located on the image increases. Adjusting a size at which the AR object is displayed, and adjusting a size at which the AR object is displayed on the display so that the size increases when a depth of a point where the AR object is located decreases.
  8. 전자 장치의 제어 방법에 있어서,A method for controlling an electronic device, comprising:
    카메라를 통해 획득된 이미지 및 상기 이미지 상에 AR 객체를 표시하는 단계;displaying an image acquired through a camera and an AR object on the image;
    상기 전자 장치의 모드가 일반 모드인 상태에서, 상기 이미지 상에서 상기 AR 객체가 위치하는 지점의 뎁스(depth)가 변경되면, 상기 변경되는 뎁스에 기초하여 상기 AR 객체가 표시되는 크기를 조정하는 단계; 및adjusting a display size of the AR object based on the changed depth when the depth of the point where the AR object is located on the image is changed while the mode of the electronic device is the normal mode; and
    상기 전자 장치의 모드가 배치 모드인 상태에서, 상기 이미지 상에서 상기 AR 객체가 위치하는 지점의 뎁스가 변경되면, 상기 AR 객체가 표시되는 크기를 유지하도록 제어하는 단계;를 포함하는 제어 방법.and controlling to maintain a displayed size of the AR object when the depth of the point at which the AR object is positioned on the image is changed while the mode of the electronic device is the arrangement mode.
  9. 제8항에 있어서,9. The method of claim 8,
    상기 AR 객체가 위치하는 지점의 뎁스는, The depth of the point where the AR object is located is,
    뎁스 방향에 따라 상기 카메라가 위치하는 지점 또는 상기 이미지 상에서 상기 AR 객체가 위치하는 지점이 이동됨에 따라 변경되는, 제어 방법.A control method that is changed as a point at which the camera is positioned or a point at which the AR object is positioned on the image is moved according to a depth direction.
  10. 제8항에 있어서,9. The method of claim 8,
    상기 표시하는 단계는,The displaying step is
    상기 AR 객체의 크기에 기초하여 상기 이미지 및 상기 이미지 상에 상기 AR 객체를 표시하고,displaying the AR object on the image and the image based on the size of the AR object,
    상기 제어하는 단계는,The controlling step is
    상기 배치 모드인 상태에서, 상기 이미지 상에서 상기 AR 객체가 위치하는 지점의 뎁스가 변경되면, 상기 AR 객체가 표시되는 크기를 유지하도록 상기 AR 객체의 크기를 변경하는, 제어 방법.In the arrangement mode, if the depth of the point where the AR object is located on the image is changed, changing the size of the AR object so as to maintain the displayed size of the AR object.
  11. 제10항에 있어서,11. The method of claim 10,
    상기 제어하는 단계는,The controlling step is
    상기 배치 모드인 상태에서, 상기 AR 객체가 위치하는 지점의 뎁스가 증가하면 상기 AR 객체가 표시되는 크기를 유지하도록 상기 AR 객체의 크기를 증가시키는 단계; 및 increasing the size of the AR object so as to maintain a displayed size of the AR object when the depth of the point at which the AR object is located increases in the arrangement mode; and
    상기 배치 모드인 상태에서, 상기 AR 객체가 위치하는 지점의 뎁스가 감소하면 상기 AR 객체가 표시되는 크기를 유지하도록 상기 AR 객체의 크기를 감소시키는 단계;를 포함하는, 제어 방법.In the arrangement mode, if the depth of the point at which the AR object is located decreases, reducing the size of the AR object so as to maintain the displayed size of the AR object.
  12. 제8항에 있어서,9. The method of claim 8,
    상기 표시하는 단계는,The displaying step is
    상기 AR 객체의 크기에 기초하여 상기 이미지 및 상기 이미지 상에 상기 AR 객체를 표시하는,displaying the AR object on the image and the image based on the size of the AR object,
    상기 조정하는 단계는,The adjusting step is
    상기 일반 모드인 상태에서, 상기 AR 객체가 위치하는 지점의 뎁스 및 상기 AR 객체에 할당된 속성에 기초하여, 상기 AR 객체가 표시되는 크기를 조정하는, 제어 방법.In the normal mode, the control method of adjusting a size in which the AR object is displayed based on a depth of a point where the AR object is located and a property assigned to the AR object.
  13. 제12항에 있어서,13. The method of claim 12,
    상기 조정하는 단계는,The adjusting step is
    상기 일반 모드인 상태에서, 상기 AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우 상기 AR 객체가 표시되는 크기가 유지되도록 제어하는 단계; 및 controlling the size at which the AR object is displayed to be maintained when the attribute assigned to the AR object has a fixed size in the normal mode; and
    상기 일반 모드인 상태에서, 상기 AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우 상기 변경되는 뎁스에 기초하여 상기 AR 객체가 표시되는 크기가 변경되도록 조정하는 단계;를 포함하는, 제어 방법.In the normal mode, when the property assigned to the AR object is a property whose size changes, adjusting the displayed size of the AR object to change based on the changed depth.
  14. 제13항에 있어서,14. The method of claim 13,
    상기 조정하는 단계는,The adjusting step is
    상기 일반 모드인 상태에서, 상기 AR 객체에 할당된 속성이 크기가 고정되는 속성인 경우, 상기 이미지 상에서 상기 AR 객체의 뎁스가 변경되면 상기 AR 객체가 표시되는 크기가 유지되도록 제어하는 단계; 및controlling the size at which the AR object is displayed to be maintained when the depth of the AR object is changed on the image when the attribute assigned to the AR object is a fixed size in the normal mode; and
    상기 일반 모드인 상태에서, 상기 AR 객체에 할당된 속성이 크기가 변동되는 속성인 경우, 상기 이미지 상에서 상기 AR 객체가 위치하는 지점의 뎁스가 증가하면 크기가 감소하도록 상기 AR 객체가 표시되는 크기를 조정하고, 상기 AR 객체가 위치하는 지점의 뎁스가 감소하면 크기가 증가하도록 상기 AR 객체가 표시되는 크기를 조정하는, 제어 방법.In the normal mode, when the property assigned to the AR object is a property whose size changes, the size at which the AR object is displayed is determined so that the size decreases when the depth of the point where the AR object is located on the image increases. and adjusting a size at which the AR object is displayed so that the size increases when the depth of the point at which the AR object is located decreases.
PCT/KR2020/018980 2019-12-26 2020-12-23 Electronic device and method for controlling same WO2021133053A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0175578 2019-12-26
KR1020190175578A KR20210083016A (en) 2019-12-26 2019-12-26 Electronic apparatus and controlling method thereof

Publications (1)

Publication Number Publication Date
WO2021133053A1 true WO2021133053A1 (en) 2021-07-01

Family

ID=76575597

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/018980 WO2021133053A1 (en) 2019-12-26 2020-12-23 Electronic device and method for controlling same

Country Status (2)

Country Link
KR (1) KR20210083016A (en)
WO (1) WO2021133053A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023049767A3 (en) * 2021-09-23 2023-04-27 Apple Inc. Methods for moving objects in a three-dimensional environment

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102628667B1 (en) * 2021-09-23 2024-01-24 그리다텍 주식회사 Virtual reality interface system for imitating solar revolution system
KR102578113B1 (en) * 2023-04-10 2023-09-14 전남대학교 산학협력단 3-dimention object shape acquisition system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101227255B1 (en) * 2010-03-17 2013-01-28 에스케이플래닛 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20140071086A (en) * 2012-12-03 2014-06-11 삼성전자주식회사 Supporting Portable Device for operating an Augmented reality contents and system, and Operating Method thereof
US20170256096A1 (en) * 2016-03-07 2017-09-07 Google Inc. Intelligent object sizing and placement in a augmented / virtual reality environment
KR101896982B1 (en) * 2016-10-13 2018-09-10 에이케이엔코리아 주식회사 Method for processing virtual user interface object for user communication and system for processing the method
KR20190080243A (en) * 2017-12-28 2019-07-08 엘에스산전 주식회사 Method for providing augmented reality user interface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101227255B1 (en) * 2010-03-17 2013-01-28 에스케이플래닛 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20140071086A (en) * 2012-12-03 2014-06-11 삼성전자주식회사 Supporting Portable Device for operating an Augmented reality contents and system, and Operating Method thereof
US20170256096A1 (en) * 2016-03-07 2017-09-07 Google Inc. Intelligent object sizing and placement in a augmented / virtual reality environment
KR101896982B1 (en) * 2016-10-13 2018-09-10 에이케이엔코리아 주식회사 Method for processing virtual user interface object for user communication and system for processing the method
KR20190080243A (en) * 2017-12-28 2019-07-08 엘에스산전 주식회사 Method for providing augmented reality user interface

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023049767A3 (en) * 2021-09-23 2023-04-27 Apple Inc. Methods for moving objects in a three-dimensional environment

Also Published As

Publication number Publication date
KR20210083016A (en) 2021-07-06

Similar Documents

Publication Publication Date Title
WO2021133053A1 (en) Electronic device and method for controlling same
WO2017155236A1 (en) Configuration and operation of display devices including content curation
WO2018088742A1 (en) Display apparatus and control method thereof
WO2015064903A1 (en) Displaying messages in an electronic device
EP3628121A1 (en) Electronic device for storing depth information in connection with image depending on properties of depth information obtained using image and control method thereof
WO2016140545A1 (en) Method and device for synthesizing three-dimensional background content
WO2018048163A1 (en) Electronic apparatus and method of controlling the same
WO2019027090A1 (en) Mobile terminal and control method thereof
WO2019139270A1 (en) Display device and content providing method thereof
WO2018080165A1 (en) Image display apparatus, mobile device, and methods of operating the same
WO2018034436A1 (en) Electronic apparatus and method of operating the same
WO2020149689A1 (en) Image processing method, and electronic device supporting same
WO2017052150A1 (en) User terminal device, electronic device, and method of controlling user terminal device and electronic device
EP3213593A1 (en) Electronic apparatus and method of setting network of audio device
WO2016114432A1 (en) Method for processing sound on basis of image information, and corresponding device
WO2016126083A1 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
WO2019039739A1 (en) Display apparatus and control method thereof
WO2014069722A1 (en) Three-dimensional display device and user interfacing method therefor
WO2021025266A1 (en) Electronic apparatus and control method thereof
WO2020171429A1 (en) Electronic device for providing animated image and method therefor
WO2020091182A1 (en) Electronic device for providing image data using augmented reality and control method for same
WO2016080662A1 (en) Method and device for inputting korean characters based on motion of fingers of user
WO2018070756A1 (en) Method, device and recording medium for processing image
WO2018093198A1 (en) Image processing apparatus and control method thereof
WO2020242064A1 (en) Mobile device and mobile device control method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20906609

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20906609

Country of ref document: EP

Kind code of ref document: A1