WO2020242064A1 - 모바일 장치 및 모바일 장치의 제어 방법 - Google Patents
모바일 장치 및 모바일 장치의 제어 방법 Download PDFInfo
- Publication number
- WO2020242064A1 WO2020242064A1 PCT/KR2020/005415 KR2020005415W WO2020242064A1 WO 2020242064 A1 WO2020242064 A1 WO 2020242064A1 KR 2020005415 W KR2020005415 W KR 2020005415W WO 2020242064 A1 WO2020242064 A1 WO 2020242064A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display
- grid
- image
- user
- input
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/13—Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Definitions
- the present invention relates to a mobile device capable of simulating the installation of an image device using augmented reality technology and a control method of the mobile device.
- Mobile devices are devices that provide various functions based on mobility and are widely used in various fields. These mobile devices include various function modules to provide various functions. For example, a mobile device includes a camera module that provides an image collection function.
- Augmented reality technology exists as a technology using a camera module of a mobile device.
- Augmented reality technology refers to a graphic technology that synthesizes virtual objects or virtual information in a real environment to make it look like an object existing in a real environment.
- the augmented-reality technology synthesizes virtual objects in the real space, unlike the existing virtual-reality technologies that are implemented in virtual space and virtual objects. Therefore, it has the feature of reinforcing and providing additional information that is difficult to obtain only in the real world.
- Such augmented reality technology can be applied to a variety of reality environments, and in particular, it is in the spotlight as a next-generation display technology suitable for ubiquitous environments.
- One aspect is a mobile device and a method of controlling the mobile device that allow a user to realistically simulate the installation of an imaging device by displaying a virtual image corresponding to an imaging device of a real size on an image of a real space where the imaging device will be installed. It aims to provide.
- a mobile device includes: a display; A camera for photographing a space in which an image device can be installed; A user interface for receiving user input; And controlling the display to identify a plane in the image of the space captured by the camera, to display a grid on a virtual plane corresponding to the plane, and adjusting the grid based on the user's input, And a controller for controlling the display to display a virtual image of the imaging device on the grid.
- control unit may move the grid based on the user's input for adjusting the grid.
- control unit may rotate the direction of the grid based on the user's input for adjusting the grid.
- controller may control the display to display the space image and a guide line together, and identify the plane based on the guide line.
- the controller may control the display to display the guide line as a basic guide line or a corner guide line.
- the controller may control the display to display a virtual image of the imaging device in a specific area of the grid based on the user's input for selecting a specific area of the grid.
- the controller may control the display to display the virtual image of the imaging device rotated on the virtual plane based on the user's input of rotating the virtual image of the imaging device.
- the controller may control the display to further display text including at least one of a model name, a size, a resolution, and a distance from a floor of the imaging device corresponding to the virtual image of the imaging device.
- the controller displays a menu bar that enables selection of the category, model, and size of the video device, and based on the user's input of selecting the video device from the menu bar, the virtual image of the video device
- the display can be controlled to display.
- the controller may delete all or part of the virtual images of the plurality of imaging devices based on the user's input of deleting the virtual images of the imaging device.
- the controller may control the display to display the content in an area where the virtual image of the video device is displayed, based on the user's input for selecting the content.
- the controller may store a simulation result regarding the installation of the video device as at least one of a video and a screenshot image.
- a method for controlling a mobile device includes: photographing a space in which an image device can be installed by a camera; Identifying a plane in the space image captured by the camera; Displaying a grid on a virtual plane corresponding to the plane by a display; Adjusting the grid based on a user's input; And displaying a virtual image of the imaging device on the grid.
- adjusting the grid may include moving the grid based on the user's input for adjusting the grid.
- adjusting the grid may include rotating the direction of the grid based on the user's input for adjusting the grid.
- the method of controlling a mobile device further includes displaying the image of the space and a guide line together by the display, and the step of identifying the plane includes the It may include the step of identifying the plane.
- displaying the image of the space and the guide line together may include displaying the guide line as a basic guide line or a corner guide line.
- displaying the virtual image of the imaging device may include displaying a virtual image of the imaging device in a specific area of the grid, based on an input of the user selecting a specific area of the grid. have.
- the displaying of the virtual image of the imaging device may include displaying a virtual image of the imaging device rotated on the virtual plane based on the user's input of rotating the virtual image of the imaging device. I can.
- the method for controlling a mobile device further comprises displaying text including at least one of a model name, a size, a resolution, and a distance from a floor of the video device corresponding to the virtual image of the video device.
- the method for controlling a mobile device further includes displaying a menu bar enabling selection of a category, model, and size of the video device, and displaying a virtual image of the video device. May include displaying a virtual image of the imaging device based on the user's input of selecting the imaging device in the menu bar.
- the method for controlling a mobile device includes, when a plurality of virtual images of the video device are displayed, based on the user's input of deleting the virtual image of the video device, the virtual image of the plurality of video devices is The step of deleting all or part of the image may be further included.
- the method for controlling a mobile device may further include displaying the selected content in an area where the virtual image of the video device is displayed, based on the user's input for selecting the content.
- the method for controlling a mobile device may further include storing a simulation result regarding the installation of the video device as at least one of a video and a screenshot image.
- a mobile device and a method for controlling a mobile device by displaying a virtual image corresponding to a real-sized image device on an image of a real space where the image device is to be installed, the user simulates the installation of the image device in a realistic way. can do.
- the mobile device and the method of controlling the mobile device according to an aspect by playing content in an area in which a virtual image corresponding to a real-sized image device is displayed, a more realistic simulation can be performed.
- 1 is a control block diagram of a mobile device.
- FIG. 2 is a detailed block diagram of the control unit shown in FIG. 1.
- FIG. 6 illustrates a method of starting a simulation for installing an imaging device.
- 7, 8, and 9 illustrate a method of identifying a plane and displaying a grid in an image of a space in which an image device can be installed.
- 14, 15, and 16 illustrate an embodiment in which a virtual image of an imaging device is displayed on a grid.
- FIG. 17 illustrates rotating and displaying a virtual image of an imaging device.
- FIG. 18 illustrates displaying a plurality of virtual images of an imaging device.
- 19, 20, 21, 22, and 23 illustrate another embodiment of displaying a virtual image of an imaging device.
- 25 and 26 illustrate deleting a virtual image of an imaging device.
- 27, 28, and 29 illustrate playing content in an area in which a virtual image of a video device is displayed.
- ⁇ unit used in the specification may be implemented by software or hardware, and according to embodiments, a plurality of'units' are implemented as one component, or one'unit' includes a plurality of components. It is also possible to do.
- terms such as “ ⁇ unit”, “ ⁇ group”, “ ⁇ block”, “ ⁇ member”, and “ ⁇ module” may mean a unit that processes at least one function or operation.
- the terms may mean hardware (eg, circuit), software stored in a memory, or a process processed by a processor.
- FIG. 1 is a control block diagram of a mobile device according to an exemplary embodiment
- FIG. 2 is a detailed block diagram of a control unit illustrated in FIG. 1.
- the mobile device 1 includes a device capable of providing augmented reality as a movable device.
- the mobile device 1 includes a mobile phone, a portable multimedia player (PMP), a digital broadcasting player, a personal digital assistant (PDA), a music file player (eg, an MP3 player), a portable game terminal, a tablet PC, and a smart phone. It may be implemented as a device capable of providing augmented reality by having a camera such as (Smart Phone).
- a camera such as (Smart Phone).
- Smart Phone Smart Phone
- a mobile device 1 includes a camera 100, a user interface unit 210, a microphone 220, an output unit 300, a communication unit 400, and a storage unit 500. And a control unit 600.
- the camera 100 may photograph a space in which an image device can be installed.
- the camera 100 is a camera module that is typically mounted on the mobile device 1, and may include a lens, an image sensor such as a CCD, and a CMOS, and an analog to digital converter.
- the camera 100 captures a subject and converts the acquired image into a digital signal and transmits the converted image to the controller 600.
- the controller 600 which will be described later, may process an image converted into a digital signal.
- the user interface 210 receives a user's input and transmits it to the controller 600.
- the user interface 210 may include various user input means such as a key pad, a dome switch, a touch pad (positive pressure/electrostatic), a jog wheel, and a jog switch.
- the user interface 210 may be a display 310 including a touch panel.
- the user interface 210 may be treated the same as the display 310 which senses a user's input such as a touch input and simultaneously displays a processing result of the user's input as an image.
- the user interface 210 may include a user interface element (UI) that is displayed on the display 310 to enable control of the mobile device 1. Meanwhile, the user's input includes a touch input and/or a gesture input.
- the microphone 220 may receive an audio signal, convert it into an electrical signal, and transmit it to the controller 600.
- the microphone 220 receives a user's voice command and transmits it to the control unit 600, and the control unit 600 may control the mobile device 1 in response to the user's voice command.
- the output unit 300 is a device capable of outputting an image signal or an audio signal, and may correspond to various devices. Specifically, the output unit 300 may include at least one of a display 310 and a speaker 320. The speaker 320 may output audio signals related to various functions of the mobile device 1.
- the display 310 may display information input by the user or information provided to the user on various screens.
- the display 310 displays information processed by the controller 600.
- the display 310 may display an image of a space captured by the camera 100 and may display an augmented reality image in which a virtual image is combined with the image of the space.
- the display 310 may display a GUI (Graphic User Interface) related to various functions of the mobile device 1.
- the display 310 may be used as an input device including a touch panel.
- the display 310 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a 3D display. ), etc.
- the communication unit 400 connects the mobile device 1 to an external device or a server through a network or a communication channel.
- the communication unit 400 may include various communication modules.
- the communication unit 400 includes various communications such as Bluetooth, Zigbee, wireless local area network (wireless local area network), home radio frequency (RF), ultra-wide band (UWB), and the Internet. It may include a communication module connectable to the network.
- the storage unit 500 may store/store programs and data for controlling the operation of the mobile device 1.
- the storage unit 500 may store input/output data (eg, text, photo, message, still image, video, etc.).
- the storage unit 500 may correspond to a memory, volatile memory such as S-RAM (Static Random Access Memory, S-RAM), D-RAM (Dynamic Random Access Memory), etc., and ROM ( Nonvolatile memory, such as Read Only Memory), Erasable Programmable Read Only Memory (EPROM), and Electrically Erasable Programmable Read Only Memory (EEPROM), may be included.
- volatile memory such as S-RAM (Static Random Access Memory, S-RAM), D-RAM (Dynamic Random Access Memory), etc.
- ROM Nonvolatile memory, such as Read Only Memory), Erasable Programmable Read Only Memory (EPROM), and Electrically Erasable Programmable Read Only Memory (EEPROM), may be included.
- the control unit 600 includes a processor 601 that generates a control signal for controlling the operation of the mobile device 1 using programs and data stored/stored in the storage unit 500 and/or the memory 602 can do.
- the processor 601 may include a logic circuit and an operation circuit, and may process data based on a program provided from the storage unit 500 and/or the memory 602, and generate a control signal according to the processing result. have.
- the control unit 600 may be implemented with hardware such as a circuit.
- the processor 601 and the memory 602 may be implemented as separate chips or a single chip.
- the controller 600 may also include a plurality of processors 601 and a plurality of memories 602.
- control unit 600 may include a space identification unit 610, a virtual image generation unit 620, and an augmented reality processing unit 630.
- the spatial identification unit 610, the virtual image generation unit 620, and the augmented reality processing unit 630 may each be implemented as separate processors or may be implemented as one processor.
- the space identification unit 610 may identify a plane from an image of a space in which an imaging device photographed by the camera 100 is installed in response to a user's input. Specifically, the space identification unit 610 may distinguish and identify the wall surface W, the floor surface F, and the ceiling surface included in an image of an actual space. The space identification unit 610 may identify a plane based on a guide line 12 to be described later.
- the imaging device may have a flat or curved shape, but for convenience of description, it is assumed that the imaging device has a flat shape. Further, the imaging device may be installed in various locations, but is generally installed on a wall surface.
- An image device refers to an electronic device capable of displaying an image.
- the image device may be a stand-alone device such as an LED TV or an OLED TV.
- the imaging device may be a display module.
- the display module may be an LED module including at least one LED pixel or an LED cabinet to which a plurality of LED modules are connected.
- a plurality of display modules may be physically connected to form one screen. That is, the imaging device may include a device in which a plurality of display modules are connected and assembled.
- the categories of video devices are Digital Signage, Stand-alone Display, Modular Display, Video Wall, Outdoor, Interactive, and Specialty. ), etc.
- the category of the video device may be determined by product characteristics, marketing requirements, and the like.
- each category may include a plurality of product models.
- the space identification unit 610 may store data on the plane identified in the image of a specific space in the storage unit 500 and/or the memory 602, and obtain data on the plane from the storage unit 500. I can.
- the space recognition unit 610 is used as the storage unit 500/memory 602 Data about the plane included in the space captured from
- the mobile device 1 can automatically identify a space or a plane in which an image device can be installed, simulation of the installation of the image device may be easier.
- the virtual image generator 620 may generate a virtual image of an object.
- the virtual image of the created object is capable of interacting with the user's input, and the user can select, move, or change the virtual image of the object.
- the virtual image generator 620 may generate a grid 20 to be displayed on a virtual plane VP corresponding to a plane identified in an image of a space.
- the grid 20 is an image of a grid pattern and is an image having a plurality of cells of a certain size.
- the size of the cell 21 of the grid 20 may be changed based on a user's input, and the virtual image generator 620 may change the size of the cell 21 based on the user's input.
- a grid 20 with 21) can be created.
- the pattern of the grid 20 may be changed.
- the virtual image generator 620 may adjust the grid 20 based on a user's input. Adjusting the grid 20 is distinct from changing the size of the cell 21. That is, adjusting the grid 20 means changing at least one of the position and direction of the grid 20.
- the virtual image generator 620 may move the grid 20 based on a user's input.
- the virtual image generator 620 may match the start line of the grid 20 to the boundary line of the identified plane based on the user's input for adjusting the grid 20.
- the user's input for moving the grid 20 may be a long touching and dragging the grid 20 on the display 310.
- the virtual image generator 620 may rotate the direction of the grid 20 based on a user's input for adjusting the grid 20.
- the user's input for rotating the direction of the grid 20 may be to simultaneously touch two points of the grid 20 on the display 310 and drag one of the two points.
- the virtual image generator 620 may generate a virtual image 30 of the video device and a virtual content image VC that may be displayed around the virtual image of the video device.
- Contents are data in various forms such as photos, videos, audios, and texts
- the virtual content image (VC) is a virtual image including such content information.
- the content corresponding to the virtual content image VC may be stored in the storage unit 500 / memory 602 or may be obtained from an external server or the like through the communication unit 400.
- the augmented reality processing unit 630 may display an image of a real space and a virtual image together on the display 310. Specifically, the augmented reality processing unit 630 may generate an augmented reality image obtained by combining an image of a real space and a virtual image, and may display the generated augmented reality image on the display 310.
- the augmented reality processing unit 630 may control the display 310 to display the guide line 12 together with an image of a space.
- the augmented reality processing unit 630 displays the grid 20 generated by the virtual image generation unit 620 on a virtual plane (VP) corresponding to the plane identified in the image of the space captured by the camera 100,
- the display 310 may be controlled to display the virtual image 30 of the imaging device on the grid 20 based on the user's input.
- the augmented reality processing unit 630 may control the display 310 to display an image of a real space, a virtual image 30 of an imaging device, and a virtual content image VC together.
- the camera 100 of the mobile device 1 acquires an image by photographing an actual space in which an imaging device can be installed (operation 701 ).
- the controller 600 identifies a plane from an image of a space captured by the camera 100 (702 ).
- the controller 600 may control the display 310 to display the grid 20 on the virtual plane VP corresponding to the identified plane (703).
- the controller 600 may display a grid 20 including a plurality of cells 21 having a predetermined size on a virtual plane VP corresponding to a plane identified in an image of a captured space.
- the controller 600 may control the display 310 to display the virtual image 30 of the imaging device on the grid 20 displayed on the virtual plane VP based on the user's input (704).
- the camera 100 of the mobile device 1 acquires an image by photographing an actual space in which an image device can be installed (operation 801 ).
- the controller 600 identifies a plane based on the guide lines 12 (12a, 12b, 12c) in the image of the space captured by the camera 100 (802 ).
- the controller 600 may control the display 310 to display an image of the space and the guide line 12 together.
- the controller 600 may control the display 310 to display the guide line 12 as a basic guide line 12a or corner guide lines 12b and 12c.
- the controller 600 controls the display 310 to display the grid 20 on the virtual plane VP corresponding to the identified plane (803). Specifically, the controller 600 may display a grid 20 including a plurality of cells 21 having a predetermined size on a virtual plane VP corresponding to a plane identified in an image of a captured space. The controller 600 may adjust the grid based on the user's input (804). The controller 600 controls the display 310 to display the virtual image 30 of the imaging device on the grid 20 displayed on the virtual plane VP based on the user's input (805 ).
- the controller 600 may control the display 310 to display content in the area where the virtual image 30 of the video device is displayed based on the user's input (806 ). For example, based on the user's input of selecting the virtual image 30 of the video device through the user interface 210, the control unit 600 controls at least one virtual content image around the virtual image 30 of the video device.
- the display 310 may be controlled to generate (VC) and display a virtual content image (VC).
- the controller 600 displays the content corresponding to the selected virtual content image in the area where the virtual image 30 of the video device is displayed, based on a user's input for selecting any one of the at least one virtual content image VC
- the display 310 may be controlled so as to be performed.
- the controller 600 may store a simulation result regarding the installation of the image device in the storage unit 500 and/or the memory 602 (807 ).
- the controller 600 may store a simulation result regarding the installation of the video device as at least one of a video and a screenshot image.
- the controller 600 may store a simulation process and/or a simulation result as at least one of a video and a screenshot image based on a command input through the recording icon 70 and/or the screenshot icon 80 to be described later. .
- the camera 100 of the mobile device 1 acquires an image by photographing an actual space in which an image device can be installed (operation 901 ).
- the control unit 600 identifies a plane based on the guide lines 12 (12a, 12b, 12c) in the image of the space captured by the camera 100 (902 ).
- the controller 600 controls the display 310 to display the grid 20 on the virtual plane VP corresponding to the identified plane (903).
- the controller 600 controls the display 310 to display the virtual image 30 of the imaging device on the grid 20 displayed on the virtual plane VP based on the user's input (804). For example, based on a user's input for selecting a specific area of the grid 20, the virtual image 30 of the imaging device may be displayed in a specific area of the selected grid 20.
- the controller 600 may control the display 310 to display a virtual image 30 of an imaging device having a predetermined size in a specific area of the selected grid 20.
- the controller 600 displays the display 310 to display the virtual image 30 of the imaging device on the selected at least one cell 21 based on the user's input for selecting the at least one cell 21. Can be controlled. That is, a virtual image 30 of an imaging device having a size corresponding to the number of selected cells 21 may be displayed.
- Installation simulation can be performed.
- the controller 600 acquires purchase information of a real video device corresponding to the virtual image 30 of the video device from an external server (not shown), and obtains purchase information of the video device with the virtual image 30 of the video device.
- the display 310 can be controlled to display together. Since users can purchase and install the same video device that they simulated, errors that may occur when the video device is actually installed can be minimized.
- FIGS. 6 to 29 features of the present invention will be described in more detail in FIGS. 6 to 29.
- FIG. 6 illustrates a method of starting a simulation for installing an imaging device.
- a simulation regarding the installation of an image device may be started as an application installed in the mobile device 1 is driven.
- the controller 600 displays an icon 5 guiding the movement of the mobile device 1 and a pop-up message 7 to start identification of a plane in the space where the video device can be installed. 310) can be controlled.
- the controller 600 may stop displaying the icon 5 and a pop-up message 7 guiding the movement of the mobile device 1.
- the mobile device 1 may include a sensor that detects motion.
- the controller 600 may control the display 310 to display the guide lines 12 (12a, 12b, 12c). However, displaying the icon 5 guiding the movement of the mobile device 1 and the pop-up message 7 may be omitted.
- a simulation for installing an image device starts, a space in which an image device can be installed is photographed by the camera 100, and a process of identifying a plane from an image of the photographed space may immediately begin.
- 7, 8, and 9 illustrate a method of identifying a plane and displaying a grid in an image of a space in which an image device can be installed.
- the controller 600 may control the display 310 to display a basic guide line 12a for identifying a plane.
- the controller 600 may display an image of a space photographed by the camera 100 and a basic guide line 12a together on the display 310 and identify a plane based on the guide line 12a.
- the control unit 600 moves the upper surface to the wall surface based on the basic guide line 12a. It can be identified by (W) and the bottom surface (F).
- the controller 600 may control the display 310 to display the grid 20 on the identified wall W.
- the controller 600 may display a pop-up message 7 including a guide sentence for matching the basic guide line 12a to the boundary between the wall surface W and the floor surface F through the display 310. Also, the controller 600 may control the display 310 to further display the confirmation button 14 under the basic guide line 12a. The controller 600 determines that the basic guide line 12a is aligned with the boundary between the wall surface W and the floor surface F, based on the user's input pressing the confirmation button 14, and determines the wall surface W. Can be identified. In addition, even when there is no input to the confirmation button 14, the control unit 600 automatically adjusts the wall surface W when the basic guide line 12a is aligned with the boundary between the wall surface W and the floor surface F. Can be identified.
- the controller 600 may generate a virtual plane VP corresponding to the wall surface W, which is the identified plane.
- the controller 600 may control the display 310 to display the grid 20 on the virtual plane VP.
- the grid 20 may include a plurality of cells 21 having a predetermined size.
- the control unit 600 turns on a return icon 40 for inputting a command to return to the previous screen, a command for changing the pattern of the grid 20, and/or the display of the grid 20.
- the pattern icon 50 for inputting a command to turn off/off, a command for performing plane identification again, and/or a refresh icon 60 for inputting a command to delete the virtual image 30 of the imaging device.
- a recording icon (70) for entering a command to save the simulation process and/or the simulation result as a video
- a screenshot icon (70) for entering a command to save the simulation process and/or the simulation result as a screenshot image
- the display 310 may be controlled to display 80).
- the controller 600 may control the display 310 to display a menu bar 90 that enables selection of a category, model, and size of an image device.
- the category of video devices can be classified into Digital Signage, Stand-alone, Video Wall, Outdoor, Interactive, Specialty, etc. I can.
- the category of the video device may be determined by product characteristics, marketing requirements, and the like.
- each category may include a plurality of product models. Also, each product model may have a different size.
- the controller 600 may control the display 310 to display corner guide lines 12b and 12c for identifying a plane at a corner of the space.
- the controller 600 displays the image of the space captured by the camera 100 and the corner guide lines 12b and 12c together on the display 310, and identifies the plane based on the corner guide lines 12b and 12c. can do.
- the controller 600 may control the display 310 to display the basic guide line 12a or the corner guide lines 12b and 12c based on a user's input of changing the guide line 12.
- the controller 600 May identify both upper surfaces as left and right wall surfaces W and the lower surface as floor surfaces F based on the first corner guide line 12b.
- the controller 600 may control the display 310 to display the grid 20 on the identified left and right wall surfaces W.
- the controller 600 May identify both upper surfaces as left and right wall surfaces W and the lower surface as floor surfaces F based on the second corner guide line 12c.
- the controller 600 may control the display 310 to display the grid 20 on the identified left and right wall surfaces W.
- the first corner guide line 12b and the second corner guide line 12b may be displayed as icons such as 3D coordinate axes (X axis, Y axis, Z axis) and may have different shapes.
- the first corner guide line 12b may have a shape having three line segments connecting the vertices of the triangle and the center of the triangle.
- the second corner guide line 12b may have a downward arrow shape.
- the grid 20 may be continuously displayed.
- the controller 600 controls the viewpoint of the camera 100 to move.
- the display 310 may be controlled to continuously display the grid 20 on a plane.
- the controller 600 is a virtual plane having a larger area than the plane existing within the field of view of the camera 100. (VP) can be created.
- the grid 20 may be understood to be displayed on the entire virtual plane VP. Therefore, even if the viewpoint of the camera 100 moves, the grid 20 may be continuously displayed. In this case, the three-dimensional coordinate axis on which the grid 20 is displayed is not changed.
- the grid 20 may be displayed to deviate from the wall surface in the space. This phenomenon may be due to an error occurring in the process of identifying a plane in space. Therefore, when the grid 20 is displayed to deviate from the identified plane, a function of adjusting the grid 20 is required.
- FIG. 10 may continue from FIG. 7.
- the controller 600 may move the grid 20 based on a user's input.
- User input includes touch input and/or gesture input.
- the controller 600 may change at least one of the position and direction of the grid 20 based on a user's input for adjusting the grid 20.
- the control unit 600 may match the start line of the grid 20 to the boundary line of the identified plane based on an input of a user moving the grid 20.
- the user's input for moving the grid 20 may be a long touching and dragging the grid 20 on the display 310. If the grid 20 is touched for a long time, the grid 20 may be displayed in a movable state. For example, the grid 20 may be changed to a dotted line.
- the color of the grid 20 may be changed.
- the controller 600 may rotate the direction of the grid 20 based on a user input that rotates the direction of the grid 20.
- the user's input for rotating the direction of the grid 20 may be to simultaneously touch two points of the grid 20 on the display 310 and drag one of the two points.
- the direction of the grid 20 may be rotated from 0 degrees to 180 degrees to the left.
- the direction of the grid 20 may be rotated in a range from 0 degrees to 180 degrees to the right.
- FIG. 11 may continue from FIG. 8 and FIG. 12 may continue from FIG. 9.
- the grid 20 may be displayed to be displaced from the left and right wall surfaces W.
- the controller 600 may move or rotate the entire grid 20 based on the user's input.
- the control unit 600 may independently adjust the grid 20 corresponding to the left wall surface and the grid 20 corresponding to the right wall surface. That is, the control unit 600 may independently adjust the grid 20 corresponding to each plane based on a user input.
- the controller 600 may match the start line of the grid 20 to the boundary line of the identified plane based on an input of a user moving the grid 20.
- the user's input for moving the grid 20 may be a long touching and dragging the grid 20 on the display 310.
- the virtual plane VP including the corresponding grid 20 may be displayed in a movable state.
- the grid 20 may be changed to a dotted line.
- the color of the grid 20 may be changed.
- the user's input for rotating the direction of the grid 20 may be to simultaneously touch two points of the grid 20 on the display 310 and drag one of the two points.
- the direction of the grid 20 may be rotated from 0 degrees to 180 degrees to the left.
- the direction of the grid 20 may be rotated in a range from 0 degrees to 180 degrees to the right.
- the menu bar 90 may be hidden.
- the controller 600 may control the display 310 to hide the menu bar 90 and display the menu indicator 95 based on the user's input of closing the menu bar 90. have.
- the controller 600 may convert the menu bar 90 into a menu indicator 95 when a predetermined time elapses.
- the controller 600 may convert the menu bar 90 into a menu indicator 95 in response to a specific function (eg, a function of rotating a virtual image of an imaging device) being performed.
- the controller 600 may control the display 310 to display the menu bar 90 based on an input of a user who opens the menu bar 90 while the menu indicator 95 is displayed.
- the controller 600 may change the pattern of the displayed grid 20.
- the grid 20 may be displayed in a square pattern, a rectangular pattern, or a diagonal pattern.
- the pattern of the grid 20 is not limited thereto, and may be variously set.
- the diagonal pattern may be selected to more easily distinguish the identified plane (eg, wall surface W) and the virtual image 30 of the imaging device.
- the controller 600 may change the pattern of the grid 20 based on a user's input. Also, the controller 600 may turn on/off the display of the grid 20 based on a user input.
- the square pattern grid 20 may be changed to a diagonal pattern grid 20.
- the display of the grid 20 may be turned off. In other words, using the pattern icon 50, a command to change the pattern of the grid 20 and/or a command to turn on/off the display of the grid 20 may be input.
- 14, 15, and 16 illustrate an embodiment in which a virtual image of an imaging device is displayed on a grid.
- 17 illustrates rotating and displaying a virtual image of an imaging device.
- the controller 600 may control the display 310 to display a menu bar 90 that enables selection of a category, model, and size of an image device.
- the controller 600 may control the display 310 to display the virtual image 30 of the video device based on a user's input of selecting the video device from the menu bar 90.
- the menu bar 90 may include a plurality of category icons 91. Also, the plurality of category icons 91 may be scrolled (eg, horizontally scrolled). When the number of category icons 91 is greater than the number that can be displayed in the menu bar 90 area, the category icons 91 not displayed on the menu bar 90 are scrolled by the user (ex. horizontal scrolling) It can be confirmed through input.
- each category may include a plurality of product models.
- the controller 600 may control the display 310 to display a plurality of model icons 92 included in the selected category based on a user's input of selecting any one of the plurality of category icons 91. For example, when the user selects the first category, a model icon 92 representing a plurality of models included in the first category may be displayed on the menu bar 90. In this case, category information may be displayed on the top of the menu bar 90.
- the plurality of model icons 92 may also be scrolled (eg, horizontally scrolled).
- the control unit 600 includes a size icon 93 on the menu bar 90 that enables selection of the size of an image device and a rotation icon that enables rotation of the virtual image 30 of the image device (
- the display 310 may be controlled to further display 94).
- the control unit 600 is a size icon 93 for selecting the size of the selected model (ex. Model 1) based on the user's input for selecting any one (ex. Model 1) of the plurality of model icons 92
- the display 310 may be controlled to display.
- the controller 600 may control the display 310 to display a plurality of size icons 93a, 93b, and 93c.
- size icon 93 is displayed on the menu bar 90
- category information and model information may be displayed on the top of the menu bar 90.
- a virtual image 30 of an imaging device having the selected size may be displayed on the grid 30.
- the controller 600 may control the display 310 to display the virtual image 30 of the imaging device in a specific area of the grid 20 based on a user's input for selecting a specific area of the grid 20.
- a user's input for selecting a specific area of the grid 20.
- the controller 600 may move the virtual image 30 of the displayed video device based on the user's input.
- the controller 600 controls the display 310 to further display text including at least one of a model name, size, resolution, and distance from the floor of the video device corresponding to the virtual image 30 of the displayed video device. can do.
- a model name is Model 1
- the size is 46 inches
- the distance from the floor is 1 m.
- the controller 600 displays a virtual image 30 of an imaging device rotated on a virtual plane VP based on a user's input for rotating the virtual image 30 of the imaging device ( 310) can be controlled. For example, in a state where the virtual image 30 of the imaging device is displayed, when there is a user's touch input on the rotation icon 94, the virtual image 30 of the imaging device is rotated 90 degrees in the left or right direction. I can.
- the controller 600 may rotate the virtual image 30 of the imaging device based on a user's gesture input to an area where the virtual image 30 of the imaging device is displayed. For example, when there is an input of a user of simultaneously touching two points of the virtual image 30 of the imaging device and dragging one of the two points, the virtual image 30 of the imaging device may be rotated. In this case, the virtual image 30 of the imaging device may rotate in a left direction or a right direction within a range of 0 degrees to 90 degrees.
- the controller 600 may convert the menu bar 90 into a menu indicator 95 in response to rotating the virtual image of the imaging device.
- the virtual image 30 of the imaging device is displayed, even if the user moves the mobile device 1 and the direction the camera 100 looks at is changed, the virtual image 30 of the imaging device is fixed to the wall of the real space. It can appear to be done.
- FIG. 18 illustrates displaying a plurality of virtual images of an imaging device.
- the controller 600 may control the display 310 to display a plurality of virtual images 30 of the imaging device based on a user input for additionally selecting an imaging device. For example, while the virtual image 30a of the first video device is displayed, the user's input to select Model 4 of the same category (ex. Category 1) and select the size of Model 4 (ex. 55 inches) In this case, the controller 600 may display the virtual image 30b of the second imaging device in an area that does not overlap the virtual image 30a of the first imaging device through the display 310. Also, as described above, the virtual image 30b of the second imaging device may be displayed in a specific area of the grid 20 based on an input of a user selecting a specific area of the grid 20.
- controller 600 may control the display 310 to display a different grid 20 according to a category or model of an image device. For example, when Model 1 is selected, a grid 20 having cells 21 of the first size may be displayed, and when Model 2 is selected, a grid 20 having cells 21 of the second size May be displayed.
- simulation of video device installation can be made easier.
- the range of use as a simulation tool can be increased.
- 19, 20, 21, 22, and 23 illustrate another embodiment of displaying a virtual image of an imaging device.
- the method of displaying a virtual image of an imaging device described below may be more usefully used when the category of the imaging device is to connect a plurality of display modules (ex. digital signage).
- One cell 21 of the grid 20 may correspond to one display module.
- the controller 600 displays a virtual image of an imaging device on at least one selected cell 21 based on a user's input for selecting at least one cell 21 included in the grid 20.
- the display 310 may be controlled to display 30. Specifically, a user may select a plurality of cells 21 by touching a cell 21 at an arbitrary position on the grid 20 and dragging and dropping.
- the controller 600 may generate a virtual image 30 of an imaging device having a size corresponding to the selected plurality of cells 21 and display it on the display 310.
- the display module includes a plurality of LED pixels.
- Pitch refers to the distance between LED pixels.
- the size icon 93 may indicate a pitch.
- the user can select a category, model, and pitch of an image device to be simulated from the menu bar 90. In Fig. 19, model 2 belonging to category 2 (ex. digital signage) and having a pitch of 0.8 is selected. Thereafter, the controller 600 may convert the menu bar 90 into a menu indicator 95.
- the virtual image 30 of the imaging device may be displayed after the plurality of cells 21 are selected, or may be sequentially displayed according to the order of the cells 21 selected while the plurality of cells 21 are selected.
- the controller 600 may control the display 310 so that the selected cells 21 are distinguished and displayed while the plurality of cells 21 are selected. For example, the color of the selected cell 21 may be changed and displayed.
- a virtual image 30 of an imaging device having a size (43 inches) corresponding to 14 cells (7x2) is displayed.
- the size of the unit cell 21 may be preset corresponding to the size of an actual imaging device.
- the size of the cell 21 may vary according to the pitch of the imaging device.
- the size of the unit cell 21 may be changed based on a user's input.
- the grid 20 is composed of a plurality of cells 21 having a predetermined size, and the user can control the number of cells 21 to be selected, so that the size of the virtual image of the imaging device can be variously adjusted.
- the controller 600 further displays a text including at least one of a model name, a size, a resolution, and a distance from the floor of the image device corresponding to the virtual image 30 of the displayed image device. ) Can be controlled.
- the model name is Model 2
- the size is 7x2 (43 inches)
- the resolution is 3840*1200
- the information that the distance from the floor is 1m is displayed. have.
- the user can select by connecting the cells 21 displayed on the other area of the wall W.
- the control unit 600 is already selected and displayed on the display 310 and the cell 21 that is not displayed on the display 310 and the selected cell (21) can be connected. That is, when the user selects the cell 21 of the grid 20, the gaze direction of the camera 100 does not have to be fixed.
- the controller 600 may change a location in which the virtual image 30 of the imaging device is displayed based on a user input for changing the location of the virtual image 30 of the imaging device. That is, according to the user's drag-and-drop input, the location of the virtual image 30 of the video device on the grid 20 may be changed and displayed.
- the controller 600 may adjust the size of the virtual image 30 of the imaging device based on a user's gesture input to an area in which the virtual image 30 of the imaging device is displayed. For example, when there is an input from a user of simultaneously touching two points of the virtual image 30 of the imaging device and dragging the two points opposite to each other, the virtual image 30 of the imaging device may be enlarged.
- the controller 600 displays a display 310 to add and display a virtual image 30b of the second imaging device based on an input of a user selecting an additional cell 21 on the grid 20. ) Can be controlled.
- the controller 600 May control the display 310 to distinguish and display the virtual image 30a of the first imaging device and the virtual image 30b of the second imaging device to be added.
- a virtual image 30a of the first imaging device already displayed includes 14 cells 7x2.
- the controller 600 transfers the virtual image 30b of the second imaging device corresponding to the additionally selected cell 21 to the virtual image of the first imaging device (
- the display 310 may be controlled to display differently from 30a).
- the virtual image 30b of the second imaging device is 1 It may be displayed differently from the virtual image 30a of the imaging device.
- the controller 600 controls the display 310 to further display text including at least one of a model name, size, resolution, and distance from the floor of the image device corresponding to the virtual image 30b of the second image device. can do.
- a model name is Model 3
- the size is 2x4 (26 inches)
- the resolution is 3840*1200 is displayed at the top of the virtual image 30b of the second imaging device
- the information that the distance from the floor is 60cm is displayed at the bottom. Marked.
- control unit 600 controls the area excluding the area where the virtual image 30a of the first imaging device is displayed.
- the display 310 may be controlled to display the virtual image 30b of the second imaging device.
- a cell 21 corresponding to the size of the virtual image 30 of the imaging device may be further selected.
- the controller 600 may display on the display 310 a virtual image 30a of an expanded image device based on the additionally selected cell 21.
- the control unit 600 may control the display 310 to display an image of a space captured by the camera 100 and a virtual image 30 of the imaging device, excluding the grid 20.
- the virtual image 30 of the imaging device may appear as if it is fixed on the wall of the real space. Therefore, the user can more easily check how the video device can be installed on the wall surface W of the actual space.
- 25 and 26 illustrate deleting a virtual image of an imaging device.
- the controller 600 may delete a virtual image of an imaging device based on a user input.
- the controller 600 may delete all of the virtual images of the plurality of imaging devices based on a user input for deleting the virtual images 30a and 30b of the imaging device.
- the refresh icon 60 may be used to input a command to delete the virtual image 30 of the video device.
- a user's touch is input to the refresh icon 60 while the virtual image 30 of the video device is displayed on the grid 20, all of the virtual images 30 of the video device are deleted. Can be.
- the refresh icon 60 may be used to input a command to perform plane identification again.
- the controller 600 may re-identify the plane based on the user's input, and generate a new grid 20 on the virtual plane corresponding to the re-identified plane. For example, when the user's touch is input to the refresh icon 60 while the virtual image 30 of the video device is not displayed on the grid 20, the control unit 600 identifies the plane again. Then, a new grid 20 may be generated on a virtual plane corresponding to the identified plane. Re-identifying the plane and creating a new grid 20 may also be performed by a user's input touching the return icon 40.
- the controller 600 when a plurality of virtual images of the video device are displayed, the controller 600 is based on a user input of deleting the virtual images 30a and 30b of the video device, and the virtual images of the plurality of video devices are displayed. Can be deleted selectively. For example, when the virtual image 30a of the first imaging device and the virtual image 30b of the second imaging device are displayed, the virtual image 30a of the first imaging device and the virtual image of the second imaging device ( One of 30b) can be deleted. Specifically, the controller 600 may change the virtual image 30b of the second imaging device to a state in which the virtual image 30b of the second imaging device can be deleted, based on a user's input of long pressing the virtual image 30b of the second imaging device. In FIG.
- the controller 600 may delete the virtual image 30b of the second imaging device based on a user's input touching the X displayed in the center area of the virtual image 30b of the second imaging device. That is, the controller 600 may delete some of the virtual images of the plurality of imaging devices based on the user's input.
- the return icon 40 may be used to input a command to return to the previous screen.
- the controller 600 may sequentially delete virtual images of a plurality of video devices based on a user's input touching the return icon 40. For example, virtual images of a plurality of image devices sequentially displayed may be deleted one by one in reverse order each time a return command is input.
- 27, 28, and 29 illustrate playing content in an area in which a virtual image of a video device is displayed.
- the controller 600 may control the display 310 to display content in an area in which the virtual image 30 of the video device is displayed, based on an input of a user selecting content. Specifically, the controller 600 displays at least one virtual content image VC around the virtual image 30 of the video device in response to a user's input for selecting the virtual image 30 of the video device. 310) can be controlled.
- the virtual content image VC is an image including content information (ex. thumbnail image) playable in the virtual image 30 of the video device.
- At least one virtual content image VC may be arranged in various patterns.
- at least one virtual content image VC may be arranged in a circle to surround the virtual image 30 of the video device, or may be arranged in a vertical direction or diagonally around the virtual image 30 of the video device. have.
- the controller 600 Based on the user's input for selecting any one of the at least one virtual content image VC, the controller 600 stores the content corresponding to the selected virtual content image VC in an area where the virtual image 30 of the video device is displayed.
- the display 310 may be controlled to display on.
- Movie 4 may be played in an area where the virtual image 30 of the video device is displayed.
- Each of the at least one virtual content image VC may include different content information, and Movie 4 may be a video.
- At least one virtual content image VC may be displayed for each category.
- the content category may be classified into a music video category, a movie category, and a photo category.
- the content may be obtained from an external server or the like through the communication unit 400 or stored in the storage unit 500 and/or the memory 602.
- the controller 600 may control the display 310 to display a list of contents stored in the storage 500 and/or the memory 602 based on a user's input selecting the My Gallery icon MG. .
- a user's swipe gesture is performed in an arbitrary area on the display 310.
- the controller 600 may display another virtual content image VC on the display 310 around the virtual image 30 of the video device.
- VC virtual content image
- a virtual content image (VC) representing Movie 6, Movie 7, Movie 8, Movie 9, and Movie 10 may be displayed in the vicinity.
- a command to rotate the virtual image 30 of the video device may be input.
- the controller 600 may control the display 310 to display other content (ex. Movie 6) suitable for the aspect ratio of the rotated video device virtual image 30.
- the mobile device and the control method of the mobile device by displaying a virtual image corresponding to an image device of a real size on an image of a real space in which the image device is to be installed, the user feels realistic. Installation of video devices can be simulated.
- the mobile device and the method of controlling the mobile device according to an aspect by playing content in an area in which a virtual image corresponding to a real-sized image device is displayed, a more realistic simulation can be performed.
- the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer.
- the instruction may be stored in the form of a program code, and when executed by a processor, a program module may be generated to perform the operation of the disclosed embodiments.
- the recording medium may be implemented as a computer-readable recording medium.
- Computer-readable recording media include all kinds of recording media in which instructions that can be read by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like.
- ROM read only memory
- RAM random access memory
- magnetic tape magnetic tape
- magnetic disk magnetic disk
- flash memory optical data storage device
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Geometry (AREA)
- Signal Processing (AREA)
- Computational Mathematics (AREA)
- Evolutionary Computation (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
현실감 있는 영상 디바이스의 설치 시뮬레이션을 위해, 일 실시예에 따른 모바일 장치는, 디스플레이, 영상 디바이스를 설치 가능한 공간을 촬영하는 카메라, 사용자의 입력을 수신하는 사용자 인터페이스, 상기 카메라에 의해 촬영된 공간의 영상에서 평면을 식별하고, 상기 평면에 대응하는 가상 평면에 그리드(Grid)를 표시하도록 상기 디스플레이를 제어하고, 상기 사용자의 입력에 기초하여 상기 그리드를 조절하고, 상기 영상 디바이스의 가상 이미지를 상기 그리드 상에 표시하도록 상기 디스플레이를 제어하는 제어부를 포함한다.
Description
증강 현실(Augmented Reality) 기술을 이용하여 영상 디바이스의 설치를 시뮬레이션 할 수 있는 모바일 장치 및 모바일 장치의 제어방법에 관한 것이다.
모바일 장치는 이동성을 기반으로 다양한 기능을 제공하는 장치로서, 다양한 분야에서 폭넓게 사용되고 있다. 이러한 모바일 장치는 다양한 기능을 제공하기 위해 여러 가지 기능 모듈을 포함한다. 예를 들면, 모바일 장치는 이미지 수집 기능을 제공하는 카메라 모듈을 포함한다.
모바일 장치의 카메라 모듈을 이용하는 기술로서 증강 현실 기술이 존재한다. 증강 현실 기술은 실제 환경에 가상 사물이나 가상 정보를 합성하여 실제 환경에 존재하는 사물처럼 보이도록 하는 그래픽 기술을 말한다.
증강 현실 기술은 가상의 공간과 가상의 사물로 구현되는 기존의 가상 현실 기술과는 다르게 실제 공간에 가상의 사물을 합성한다. 따라서, 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가진다. 이러한 증강 현실 기술은 다양한 현실 환경에 응용이 가능하며, 특히, 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.
일 측면은 영상 디바이스가 설치될 실제 공간의 영상에 실제 크기의 영상 디바이스에 대응하는 가상 이미지를 함께 표시함으로써, 사용자가 현실감 있게 영상 디바이스의 설치를 시뮬레이션 할 수 있도록 하는 모바일 장치 및 모바일 장치의 제어 방법을 제공하는 것을 목적으로 한다.
일 실시예에 따른 모바일 장치는, 디스플레이; 영상 디바이스를 설치 가능한 공간을 촬영하는 카메라; 사용자의 입력을 수신하는 사용자 인터페이스; 및 상기 카메라에 의해 촬영된 공간의 영상에서 평면을 식별하고, 상기 평면에 대응하는 가상 평면에 그리드(Grid)를 표시하도록 상기 디스플레이를 제어하고, 상기 사용자의 입력에 기초하여 상기 그리드를 조절하고, 상기 영상 디바이스의 가상 이미지를 상기 그리드 상에 표시하도록 상기 디스플레이를 제어하는 제어부 를 포함한다.
또한, 상기 제어부는, 상기 그리드를 조절하는 상기 사용자의 입력에 기초하여, 상기 그리드를 이동시킬 수 있다.
또한, 상기 제어부는, 상기 그리드를 조절하는 상기 사용자의 입력에 기초하여, 상기 그리드의 방향을 회전시킬 수 있다.
또한, 상기 제어부는 상기 공간의 영상과 가이드 선을 함께 표시하도록 상기 디스플레이를 제어하고, 상기 가이드 선을 기준으로 상기 평면을 식별할 수 있다.
또한, 상기 제어부는 상기 가이드 선을 기본 가이드 선 또는 코너 가이드 선으로 표시하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 제어부는 상기 그리드의 특정 영역을 선택하는 상기 사용자의 입력에 기초하여, 상기 그리드의 특정 영역에 상기 영상 디바이스의 가상 이미지를 표시하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 제어부는 상기 영상 디바이스의 가상 이미지를 회전시키는 상기 사용자의 입력에 기초하여, 상기 가상 평면 상에서 회전된 상기 영상 디바이스의 가상 이미지를 표시하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 제어부는 상기 영상 디바이스의 가상 이미지에 대응하는 상기 영상 디바이스의 모델명, 크기, 해상도 및 바닥으로부터의 거리 중 적어도 하나를 포함하는 텍스트를 더 표시하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 제어부는 상기 영상 디바이스의 카테고리, 모델 및 사이즈에 관한 선택을 가능하게 하는 메뉴 바를 표시하고, 상기 메뉴 바에서 상기 영상 디바이스를 선택하는 상기 사용자의 입력에 기초하여, 상기 영상 디바이스의 가상 이미지를 표시하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 제어부는 상기 영상 디바이스의 가상 이미지가 복수 개 표시된 경우, 상기 영상 디바이스의 가상 이미지를 삭제하는 상기 사용자의 입력에 기초하여, 상기 복수 개의 영상 디바이스의 가상 이미지를 전부 삭제하거나 일부 삭제할 수 있다.
또한, 상기 제어부는 컨텐츠를 선택하는 상기 사용자의 입력에 기초하여, 상기 영상 디바이스의 가상 이미지가 표시된 영역에 상기 컨텐츠를 표시하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 제어부는 상기 영상 디바이스의 설치에 관한 시뮬레이션 결과를 비디오 및 스크린샷 이미지 중 적어도 하나로 저장할 수 있다.
일 실시예에 따른 모바일 장치의 제어 방법은, 카메라에 의해, 영상 디바이스를 설치 가능한 공간을 촬영하는 단계; 상기 카메라에 의해 촬영된 공간의 영상에서 평면을 식별하는 단계; 디스플레이에 의해, 상기 평면에 대응하는 가상 평면에 그리드(Grid)를 표시하는 단계; 사용자의 입력에 기초하여 상기 그리드를 조절하는 단계; 및 상기 그리드 상에 상기 영상 디바이스의 가상 이미지를 표시하는 단계를 포함한다.
또한, 상기 그리드를 조절하는 단계는, 상기 그리드를 조절하는 상기 사용자의 입력에 기초하여, 상기 그리드를 이동시키는 단계를 포함할 수 있다.
또한, 상기 그리드를 조절하는 단계는, 상기 그리드를 조절하는 상기 사용자의 입력에 기초하여, 상기 그리드의 방향을 회전시키는 단계를 포함할 수 있다.
또한, 일 실시예에 따른 모바일 장치의 제어 방법은, 상기 디스플레이에 의해 상기 공간의 영상과 가이드 선을 함께 표시하는 단계를 더 포함하고, 상기 평면을 식별하는 단계는, 상기 가이드 선을 기준으로 상기 평면을 식별하는 단계를 포함할 수 있다.
또한, 상기 공간의 영상과 가이드 선을 함께 표시하는 단계는, 상기 가이드 선을 기본 가이드 선 또는 코너 가이드 선으로 표시하는 단계를 포함할 수 있다.
또한, 상기 영상 디바이스의 가상 이미지를 표시하는 단계는, 상기 그리드의 특정 영역을 선택하는 상기 사용자의 입력에 기초하여, 상기 그리드의 특정 영역에 상기 영상 디바이스의 가상 이미지를 표시하는 단계를 포함할 수 있다.
또한, 상기 영상 디바이스의 가상 이미지를 표시하는 단계는, 상기 영상 디바이스의 가상 이미지를 회전시키는 상기 사용자의 입력에 기초하여, 상기 가상 평면 상에서 회전된 상기 영상 디바이스의 가상 이미지를 표시하는 단계를 포함할 수 있다.
또한, 일 실시예에 따른 모바일 장치의 제어 방법은, 상기 영상 디바이스의 가상 이미지에 대응하는 상기 영상 디바이스의 모델명, 크기, 해상도 및 바닥으로부터의 거리 중 적어도 하나를 포함하는 텍스트를 표시하는 단계를 더 포함할 수 있다.
또한, 일 실시예에 따른 모바일 장치의 제어 방법은, 상기 영상 디바이스의 카테고리, 모델 및 사이즈에 관한 선택을 가능하게 하는 메뉴 바를 표시하는 단계를 더 포함하고, 상기 영상 디바이스의 가상 이미지를 표시하는 단계는, 상기 메뉴 바에서 상기 영상 디바이스를 선택하는 상기 사용자의 입력에 기초하여, 상기 영상 디바이스의 가상 이미지를 표시하는 단계를 포함할 수 있다.
또한, 일 실시예에 따른 모바일 장치의 제어 방법은, 상기 영상 디바이스의 가상 이미지가 복수 개 표시된 경우, 상기 영상 디바이스의 가상 이미지를 삭제하는 상기 사용자의 입력에 기초하여, 상기 복수 개의 영상 디바이스의 가상 이미지를 전부 삭제하거나 일부 삭제하는 단계를 더 포함할 수 있다.
또한, 일 실시예에 따른 모바일 장치의 제어 방법은, 컨텐츠를 선택하는 상기 사용자의 입력에 기초하여, 상기 영상 디바이스의 가상 이미지가 표시된 영역에 상기 선택된 컨텐츠를 표시하는 단계를 더 포함할 수 있다.
또한, 일 실시예에 따른 모바일 장치의 제어 방법은, 상기 영상 디바이스의 설치에 관한 시뮬레이션 결과를 비디오 및 스크린샷 이미지 중 적어도 하나로 저장하는 단계를 더 포함할 수 있다.
일 측면에 따른 모바일 장치 및 모바일 장치의 제어 방법에 의하면, 영상 디바이스가 설치될 실제 공간의 영상에 실제 크기의 영상 디바이스에 대응하는 가상 이미지를 함께 표시함으로써, 사용자가 현실감 있게 영상 디바이스의 설치를 시뮬레이션 할 수 있다.
또한, 일 측면에 따른 모바일 장치 및 모바일 장치의 제어 방법에 의하면, 실제 크기의 영상 디바이스에 대응하는 가상 이미지가 표시된 영역에 컨텐츠를 재생함으로써, 보다 현실감 있는 시뮬레이션을 수행할 수 있다.
도 1은 모바일 장치의 제어 블록도이다.
도 2는 도 1에 도시된 제어부의 상세 블록도이다.
도 3, 도 4 및 도 5는 모바일 장치 제어 방법을 설명하는 순서도이다.
도 6은 영상 디바이스 설치에 관한 시뮬레이션을 시작하는 방법을 설명한다.
도 7, 도 8 및 도 9는 영상 디바이스를 설치 가능한 공간의 영상에서 평면을 식별하고, 그리드를 표시하는 방법을 설명한다.
도 10, 도 11 및 도 12는 그리드를 조절하는 것을 설명한다.
도 13은 그리드의 패턴을 변경하는 것을 설명한다.
도 14, 도 15 및 도 16은 영상 디바이스의 가상 이미지를 그리드 상에 표시하는 일 실시예를 설명한다.
도 17은 영상 디바이스의 가상 이미지를 회전시켜 표시하는 것을 설명한다.
도 18은 영상 디바이스의 가상 이미지를 복수 개 표시하는 것을 설명한다.
도 19, 도 20, 도 21, 도 22 및 도 23은 영상 디바이스의 가상 이미지를 표시하는 다른 실시예를 설명한다.
도 24는 그리드를 표시하거나 숨기는 것을 설명한다.
도 25 및 도 26은 영상 디바이스의 가상 이미지를 삭제하는 것을 설명한다.
도 27, 도 28 및 도 29는 영상 디바이스의 가상 이미지가 표시되는 영역에 컨텐츠를 재생하는 것을 설명한다.
본 명세서에 기재된 실시예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예에 불과할 뿐이며, 본 출원의 출원시점에 있어서 본 명세서의 실시예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다. 본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것이고, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다.
명세서에서 사용되는 '부'라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 구성 요소로 구현되거나, 하나의 '부'가 복수의 구성 요소들을 포함하는 것도 가능하다. 또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 하드웨어(예를 들면, 회로(Circuit)), 메모리에 저장된 소프트웨어 또는 프로세서에 의하여 처리되는 프로세스를 의미할 수 있다.
본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한, 제 1 이나 제 2 등의 용어는 하나의 부분을 다른 부분으로부터 구별하기 위해 사용되는 것으로, 특별한 기재가 없는 이상 이들이 순차적인 표현을 의미하는 것은 아니다.
또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합이 존재함을 표현하고자 하는 것이며, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합의 추가적인 존재 또는 부가 가능성을 배제하지 않는다.
또한, "제1", "제2" 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위하여 사용되며, 상기 하나의 구성요소들을 한정하지 않는다.
이하에서는 첨부한 도면을 참조하여 개시된 발명의 일 실시예가 상세하게 설명된다. 첨부된 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낼 수 있다.
도 1은 일 실시예에 따른 모바일 장치의 제어 블록도이고, 도 2는 도 1에 도시된 제어부의 상세 블록도이다.
먼저, 일 실시예에 따른 모바일 장치(1)는 이동 가능한 장치로서 증강 현실을 제공할 수 있는 장치를 포함한다. 예를 들면, 모바일 장치(1)는 휴대 전화기, PMP(Portable Multimedia Player), 디지털 방송 플레이어, PDA(Personal Digital Assistant), 음악 파일 재생기(예컨대, MP3 플레이어), 휴대 게임 단말기, 태블릿 PC 및 스마트 폰(Smart Phone) 등 카메라를 구비하여 증강 현실을 제공할 수 있는 장치로 구현될 수 있다. 이하에서는 설명의 편의를 위해 모바일 장치(1)가 스마트 폰인 것으로 가정한다.
도 1을 참조하면, 일 실시예에 따른 모바일 장치(1)는 카메라(100), 사용자 인터페이스부(210), 마이크(220), 출력부(300), 통신부(400), 저장부(500) 및 제어부(600)를 포함할 수 있다.
카메라(100)는 영상 디바이스가 설치 가능한 공간을 촬영할 수 있다. 카메라(100)는 모바일 장치(1)에 통상적으로 장착되는 카메라 모듈로서, 렌즈, CCD, CMOS와 같은 영상 센서 및 아날로그 디지털 컨버터를 포함할 수 있다. 카메라(100)는 피사체를 포착하여 획득한 영상을 디지털 신호로 변환하여 제어부(600)로 전송한다. 후술할 제어부(600)는 디지털 신호로 변환된 영상에 대한 처리를 수행할 수 있다.
사용자 인터페이스(210)는 사용자의 입력을 수신하여 제어부(600)에 전달한다. 사용자 인터페이스(210)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등 다양한 사용자 입력 수단을 포함할 수 있다.
또한, 사용자 인터페이스(210)는 터치 패널을 포함하는 디스플레이(310)일 수 있다. 사용자 인터페이스(210)는 터치 입력과 같은 사용자의 입력을 감지하고 동시에 사용자의 입력에 대한 처리 결과를 이미지로 표시하는 디스플레이(310)와 동일하게 취급될 수 있다. 사용자 인터페이스(210)는 디스플레이(310) 상에 표시되어 모바일 장치(1)의 제어를 가능하게 하는 UI 엘리먼트(User Interface Element)를 포함할 수 있다. 한편, 사용자의 입력은 터치 입력 및/또는 제스처 입력을 포함한다.
마이크(220)는 오디오 신호를 수신하고 전기적 신호로 변환하여 제어부(600)에 전송할 수 있다. 마이크(220)는 사용자의 음성 명령을 입력 받아 제어부(600)로 전송하고, 제어부(600)는 사용자의 음성 명령에 대응하여 모바일 장치(1)를 제어할 수 있다.
출력부(300)는 영상 신호 또는 오디오 신호를 출력할 수 있는 장치로서 다양한 장치에 해당할 수 있다. 구체적으로, 출력부(300)는 디스플레이(310) 및 스피커(320) 중 적어도 하나를 포함할 수 있다. 스피커(320)는 모바일 장치(1)의 각종 기능과 관련된 오디오 신호를 출력할 수 있다.
디스플레이(310)는 사용자가 입력한 정보 또는 사용자에게 제공되는 정보를 다양한 화면으로 표시할 수 있다. 디스플레이(310) 제어부(600)에서 처리되는 정보를 표시한다. 예를 들면, 디스플레이(310)는 카메라(100)에 의해 촬영된 공간의 영상을 표시하고, 공간의 영상에 가상 이미지가 합성된 증강 현실 영상을 표시할 수 있다. 디스플레이(310)는 모바일 장치(1)의 각종 기능과 관련된 GUI(Graphic User Interface)를 표시할 수 있다.
또한, 디스플레이(310)는 터치 패널을 포함하여 입력 장치로도 사용될 수 있다. 디스플레이(310)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystaldisplay), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.
통신부(400)는 네트워크 또는 통신 채널을 통해 모바일 장치(1)를 외부 디바이스, 서버 등과 연결한다. 통신부(400)는 다양한 통신 모듈을 포함할 수 있다. 예를 들면, 통신부(400)는 블루투스(Bluetooth), 지그비(Zigbee), 무선 랜((wireless local area network), 홈 RF(Home Radio Frequency), UWB(Ultra-wide band), 인터넷 등과 같은 다양한 통신 네트워크와 연결 가능한 통신 모듈을 포함할 수 있다.
저장부(500)는 모바일 장치(1)의 작동을 제어하기 위한 프로그램 및 데이터를 기억/저장할 수 있다. 또한, 저장부(500)는 입/출력되는 데이터(예를 들어, 텍스트, 사진, 메시지, 정지 영상, 동영상 등)를 저장할 수 있다.
이러한 저장부(500)는 메모리에 해당할 수 있고, S-램(Static Random Access Memory, S-RAM), D-램(Dynamic Random Access Memory) 등과 같은 휘발성 메모리, 데이터를 장기간 저장하기 위한 롬(Read Only Memory), 이피롬(Erasable Programmable Read Only Memory: EPROM), 이이피롬(Electrically Erasable Programmable Read Only Memory: EEPROM) 등과 같은 비휘발성 메모리를 포함할 수 있다.
제어부(600)는 저장부(500) 및/또는 메모리(602)에 저장/기억된 프로그램 및 데이터를 이용하여 모바일 장치(1)의 작동을 제어하기 위한 제어 신호를 생성하는 프로세서(601)를 포함할 수 있다. 프로세서(601)는 논리 회로와 연산 회로를 포함할 수 있으며, 저장부(500) 및/또는 메모리(602)로부터 제공되는 프로그램에 기초하여 데이터를 처리하고, 처리 결과에 따라 제어 신호를 생성할 수 있다. 제어부(600)는 회로(Circuit)와 같은 하드웨어로 구현될 수 있다.
또한, 프로세서(601)와 메모리(602)는 별도의 칩으로 구현되거나, 단일의 칩으로 구현될 수 있다. 제어부(600)는 복수의 프로세서(601)와 복수의 메모리(602)를 포함할 수도 있다.
도 2를 참조하면, 제어부(600)는 공간 식별부(610), 가상 이미지 생성부(620) 및 증강 현실 처리부(630)를 포함할 수 있다. 공간 식별부(610), 가상 이미지 생성부(620) 및 증강 현실 처리부(630)는 각각 별개의 프로세서로 구현될 수 있고, 하나의 프로세서로 구현될 수도 있다.
공간 식별부(610)는 사용자의 입력에 대응하여, 카메라(100)에 의해 촬영된 영상 디바이스를 설치할 공간의 영상에서 평면(plane)을 식별할 수 있다. 구체적으로, 공간 식별부(610)는 실제 공간의 영상에 포함된 벽면(W), 바닥면(F) 및 천장면을 구별하여 식별할 수 있다. 공간 식별부(610)는 후술할 가이드 선(12)을 기준으로 평면을 식별할 수 있다.
영상 디바이스는 평면 또는 곡면의 형상을 가질 수 있으나, 설명의 편의를 위하여 영상 디바이스가 평면 형상을 갖는 것으로 가정한다. 또한, 영상 디바이스는 다양한 위치에 설치될 수 있으나, 일반적으로 벽면 상에 설치된다.
영상 디바이스는 영상을 표시할 수 있는 전자 장치를 의미한다. 영상 디바이스는 LED TV, OLED TV 등과 같은 독립형(Stand-alone) 장치일 수 있다. 또한, 영상 디바이스는 디스플레이 모듈일 수 있다. 디스플레이 모듈은 적어도 하나의 LED 화소를 포함하는 LED 모듈 또는 복수의 LED 모듈들이 연결된 LED 캐비넷(cabinet)일 수 있다. 복수의 디스플레이 모듈이 물리적으로 연결되어 하나의 스크린을 형성할 수 있다. 즉, 영상 디바이스는 복수의 디스플레이 모듈이 연결 및 조립된 장치를 포함할 수 있다.
한편, 영상 디바이스의 카테고리는 여러 가지가 있을 수 있다. 예를 들면, 영상 디바이스의 카테고리는 디지털 사이니지(Digital Signage), 독립형(Stand-alone) 디스플레이, 모듈형 디스플레이, 비디오 월(Video Wall), 아웃도어(Outdoor), 인터랙티브(Interactive), 스페셜티(Specialty) 등으로 구별될 수 있다. 이러한 영상 디바이스의 카테고리는 제품 특성, 마케팅 요구 사항 등에 의해 결정될 수 있다. 또한, 각각의 카테고리는 복수의 제품 모델을 포함할 수 있다.
또한, 공간 식별부(610)는 특정 공간의 영상에서 식별한 평면에 관한 데이터를 저장부(500) 및/또는 메모리(602)에 저장할 수 있고, 평면에 관한 데이터를 저장부(500)로부터 가져올 수 있다. 카메라(100)에 의해 촬영된 공간의 영상이 저장부(500)/메모리(602)에 저장되어 있는 공간의 영상과 동일한 경우, 공간 인식부(610)는 저장부(500)/메모리(602)로부터 촬영된 공간에 포함된 평면에 관한 데이터를 가져올 수 있다.
이와 같이, 일 실시예에 따른 모바일 장치(1)는 영상 디바이스가 설치 가능한 공간 또는 평면을 자동으로 식별할 수 있으므로, 영상 디바이스 설치의 시뮬레이션이 보다 용이해질 수 있다.
가상 이미지 생성부(620)는 객체의 가상 이미지를 생성할 수 있다. 생성된 객체의 가상 이미지는 사용자의 입력과 상호 작용 가능한 것으로서, 사용자는 객체의 가상 이미지를 선택, 이동, 변경할 수 있다.
예를 들면, 가상 이미지 생성부(620)는 공간의 영상에서 식별된 평면에 대응하는 가상 평면(VP)에 표시될 그리드(Grid)(20)를 생성할 수 있다. 그리드(Grid)(20)는 격자 무늬의 이미지로서 일정한 크기의 복수의 셀(cell)을 갖는 이미지이다. 그리드(20)의 셀(21) 크기는 사용자의 입력에 기초하여 변경될 수 있고, 가상 이미지 생성부(620)는 셀(21)의 크기를 변경하는 사용자의 입력에 기초하여 변경된 크기의 셀(21)을 갖는 그리드(20)를 생성할 수 있다. 또한, 그리드(20)의 패턴도 변경될 수 있다.
또한, 가상 이미지 생성부(620)는 사용자의 입력에 기초하여 그리드(20)를 조절할 수 있다. 그리드(20)를 조절하는 것은 셀(21)의 크기를 변경하는 것과 구별된다. 즉, 그리드(20)를 조절하는 것은 그리드(20)의 위치 및 방향 중 적어도 하나를 변경하는 것을 의미한다.
구체적으로, 가상 이미지 생성부(620)는 사용자의 입력에 기초하여 그리드(20)를 이동시킬 수 있다. 가상 이미지 생성부(620)는 그리드(20)를 조절하는 사용자의 입력에 기초하여, 그리드(20)의 시작선을 식별된 평면의 경계선에 매칭시킬 수 있다. 그리드(20)를 이동시키기 위한 사용자의 입력은 디스플레이(310) 상에서 그리드(20)를 길게 터치하고 드래그하는 것일 수 있다.
또한, 가상 이미지 생성부(620)는 그리드(20)를 조절하는 사용자의 입력에 기초하여, 그리드(20)의 방향을 회전시킬 수 있다. 그리드(20)의 방향을 회전시키는 사용자의 입력은 디스플레이(310) 상에서 그리드(20)의 두 지점을 동시에 터치하고, 두 지점 중 한 지점을 드래그 하는 것일 수 있다.
또한, 가상 이미지 생성부(620)는 영상 디바이스의 가상 이미지(30) 및 영상 디바이스의 가상 이미지 주변에 표시될 수 있는 가상 컨텐츠 이미지(VC)를 생성할 수 있다. 컨텐츠는 사진, 비디오, 오디오, 텍스트 등 다양한 형태의 데이터로서, 가상 컨텐츠 이미지(VC)는 이러한 컨텐츠 정보를 포함하는 가상 이미지이다. 또한, 가상 컨텐츠 이미지(VC)에 대응하는 컨텐츠는 저장부(500)/메모리(602)에 저장된 것이거나, 통신부(400)를 통해 외부 서버 등으로부터 획득되는 것일 수 있다.
증강 현실 처리부(630)는 실제 공간의 영상과 가상 이미지를 디스플레이(310)에 함께 표시할 수 있다. 구체적으로, 증강 현실 처리부(630)는 실제 공간의 영상과 가상 이미지를 합성한 증강 현실 영상을 생성하고, 생성된 증강 현실 영상을 디스플레이(310)에 표시할 수 있다.
증강 현실 처리부(630)는 가이드 선(12)을 공간의 영상과 함께 표시하도록 디스플레이(310)를 제어할 수 있다. 증강 현실 처리부(630)는 가상 이미지 생성부(620)에 의해 생성된 그리드(20)를 카메라(100)에 의해 촬영된 공간의 영상에서 식별된 평면에 대응하는 가상 평면(VP)에 표시하고, 사용자의 입력에 기초하여 그리드(20) 상에 영상 디바이스의 가상 이미지(30)를 함께 표시하도록 디스플레이(310)를 제어할 수 있다. 또한, 증강 현실 처리부(630)는 실제 공간의 영상, 영상 디바이스의 가상 이미지(30) 및 가상 컨텐츠 이미지(VC)를 함께 표시하도록 디스플레이(310)를 제어할 수 있다.
이와 같이, 영상 디바이스가 설치될 실제 공간의 영상과 함께 실제 크기의 영상 디바이스에 대응하는 가상 이미지를 표시함으로써, 사용자가 현실감 있게 영상 디바이스의 설치를 시뮬레이션 할 수 있다.
도 3, 도 4 및 도 5는 모바일 장치 제어 방법을 설명하는 순서도이다.
도 3은 그리드 및 영상 디바이스의 가상 이미지를 표시하는 것을 간략히 설명한다.
도 3을 참조하면, 모바일 장치(1)의 카메라(100)는 영상 디바이스가 설치 가능한 실제 공간을 촬영하여 영상을 획득한다(701). 제어부(600)는 카메라(100)에 의해 촬영된 공간의 영상에서 평면을 식별한다(702). 제어부(600)는 식별한 평면에 대응하는 가상 평면(VP)에 그리드(20)를 표시하도록 디스플레이(310)를 제어할 수 있다(703). 구체적으로, 제어부(600)는 촬영된 공간의 영상에서 식별된 평면에 대응하는 가상 평면(VP)에 일정 크기를 갖는 복수의 셀(21)을 포함하는 그리드(20)를 표시할 수 있다. 제어부(600)는 사용자의 입력에 기초하여 영상 디바이스의 가상 이미지(30)를 가상 평면(VP)에 표시된 그리드(20) 상에 표시하도록 디스플레이(310)를 제어할 수 있다(704).
도 4는 컨텐츠를 표시하고, 시뮬레이션 결과를 저장하는 것을 더 설명한다.
도 4를 참조하면, 모바일 장치(1)의 카메라(100)는 영상 디바이스가 설치 가능한 실제 공간을 촬영하여 영상을 획득한다(801). 제어부(600)는 카메라(100)에 의해 촬영된 공간의 영상에서 가이드 선(12: 12a, 12b, 12c)을 기준으로 평면을 식별한다(802). 제어부(600)는 공간의 영상과 가이드 선(12)을 함께 표시하도록 디스플레이(310)를 제어할 수 있다. 또한, 제어부(600)는 가이드 선(12)을 기본 가이드 선(12a) 또는 코너 가이드 선(12b, 12c)으로 표시하도록 디스플레이(310)를 제어할 수 있다.
제어부(600)는 식별한 평면에 대응하는 가상 평면(VP)에 그리드(20)를 표시하도록 디스플레이(310)를 제어한다(803). 구체적으로, 제어부(600)는 촬영된 공간의 영상에서 식별된 평면에 대응하는 가상 평면(VP)에 일정 크기를 갖는 복수의 셀(21)을 포함하는 그리드(20)를 표시할 수 있다. 제어부(600)는 사용자의 입력에 기초하여 그리드를 조절할 수 있다(804). 제어부(600)는 사용자의 입력에 기초하여 영상 디바이스의 가상 이미지(30)를 가상 평면(VP)에 표시된 그리드(20) 상에 표시하도록 디스플레이(310)를 제어한다(805).
이후, 제어부(600)는 사용자의 입력에 기초하여 영상 디바이스의 가상 이미지(30)가 표시된 영역에 컨텐츠를 표시하도록 디스플레이(310)를 제어할 수 있다(806). 예를 들면, 사용자 인터페이스(210)를 통해 영상 디바이스의 가상 이미지(30)를 선택하는 사용자의 입력에 기초하여, 제어부(600)는 영상 디바이스의 가상 이미지(30) 주변에 적어도 하나의 가상 컨텐츠 이미지(VC)를 생성하고, 가상 컨텐츠 이미지(VC)를 표시하도록 디스플레이(310)를 제어할 수 있다. 제어부(600)는, 적어도 하나의 가상 컨텐츠 이미지(VC) 중 어느 하나를 선택하는 사용자의 입력에 기초하여, 선택된 가상 컨텐츠 이미지에 대응하는 컨텐츠를 영상 디바이스의 가상 이미지(30)가 표시된 영역에 표시하도록 디스플레이(310)를 제어할 수 있다.
또한, 제어부(600)는 영상 디바이스의 설치에 관한 시뮬레이션 결과를 저장부(500) 및/또는 메모리(602)에 저장할 수 있다(807). 제어부(600)는 영상 디바이스의 설치에 관한 시뮬레이션 결과를 비디오 및 스크린샷 이미지 중 적어도 하나로 저장할 수 있다. 제어부(600)는, 후술할 레코딩 아이콘(70) 및/또는 스크린샷 아이콘(80)을 통해 입력되는 명령에 기초하여, 시뮬레이션 과정 및/또는 시뮬레이션 결과를 비디오 및 스크린샷 이미지 중 적어도 하나로 저장할 수 있다.
도 5는 영상 디바이스의 가상 이미지를 표시하는 것을 더 상세히 설명한다.
도 5를 참조하면, 모바일 장치(1)의 카메라(100)는 영상 디바이스가 설치 가능한 실제 공간을 촬영하여 영상을 획득한다(901). 제어부(600)는 카메라(100)에 의해 촬영된 공간의 영상에서 가이드 선(12: 12a, 12b, 12c)을 기준으로 평면을 식별한다(902). 제어부(600)는 식별한 평면에 대응하는 가상 평면(VP)에 그리드(20)를 표시하도록 디스플레이(310)를 제어한다(903).
제어부(600)는 사용자의 입력에 기초하여 영상 디바이스의 가상 이미지(30)를 가상 평면(VP)에 표시된 그리드(20) 상에 표시하도록 디스플레이(310)를 제어한다(804). 예를 들면, 그리드(20)의 특정 영역을 선택하는 사용자의 입력에 기초하여, 선택된 그리드(20)의 특정 영역에 영상 디바이스의 가상 이미지(30)가 표시될 수 있다. 제어부(600)는 선택된 그리드(20)의 특정 영역에 미리 정해진 크기를 갖는 영상 디바이스의 가상 이미지(30)를 표시하도록 디스플레이(310)를 제어할 수 있다.
또한, 제어부(600)는 적어도 하나의 셀(21)을 선택하는 사용자의 입력에 기초하여, 선택된 적어도 하나의 셀(21) 상에 영상 디바이스의 가상 이미지(30)를 표시하도록 디스플레이(310)를 제어할 수 있다. 즉, 선택된 셀(21)의 수에 대응하는 크기를 갖는 영상 디바이스의 가상 이미지(30)가 표시될 수 있다.
이와 같이, 영상 디바이스를 설치 가능한 실제 공간의 영상과 함께 실제 크기의 영상 디바이스에 대응하는 가상 이미지를 표시하고, 실제 크기의 영상 디바이스에 대응하는 가상 이미지 영역에 컨텐츠를 재생함으로써, 현실감 있는 영상 디바이스의 설치 시뮬레이션이 수행될 수 있다.
한편, 제어부(600)는 영상 디바이스의 가상 이미지(30)에 대응하는 실제 영상 디바이스의 구매 정보를 외부 서버(미도시)로부터 획득하고, 영상 디바이스의 구매 정보를 영상 디바이스의 가상 이미지(30)와 함께 표시하도록 디스플레이(310)를 제어할 수 있다. 사용자는 자신이 시뮬레이션 해본 것과 동일한 영상 디바이스를 구매하여 설치할 수 있으므로, 영상 디바이스를 실제로 설치할 때 발생할 수 있는 오차를 최소화 할 수 있다.
이하 도 6 내지 도 29에서 본 발명의 특징이 보다 자세히 설명된다.
도 6은 영상 디바이스 설치에 관한 시뮬레이션을 시작하는 방법을 설명한다.
도 6을 참조하면, 영상 디바이스 설치에 관한 시뮬레이션은 모바일 장치(1)에 설치된 어플리케이션이 구동됨에 따라 시작될 수 있다. 어플리케이션이 구동되면, 제어부(600)는 영상 디바이스를 설치 가능한 공간 내 평면의 식별을 시작하기 위해, 모바일 장치(1)의 움직임을 안내하는 아이콘(5)과 팝업 메시지(7)를 표시하도록 디스플레이(310)를 제어할 수 있다.
제어부(600)는, 모바일 장치(1)의 움직임이 감지되면, 모바일 장치(1)의 움직임을 안내하는 아이콘(5)과 팝업 메시지(7)를 표시하는 것을 중단시킬 수 있다. 모바일 장치(1)는 움직임을 감지하는 센서를 포함할 수 있다.
이후, 제어부(600)는, 가이드 선(12: 12a, 12b, 12c)을 표시하도록 디스플레이(310)를 제어할 수 있다. 그러나 모바일 장치(1)의 움직임을 안내하는 아이콘(5)과 팝업 메시지(7)를 표시하는 것은 생략될 수 있다. 다시 말해, 영상 디바이스 설치에 관한 시뮬레이션이 시작되면, 카메라(100)에 의해 영상 디바이스를 설치 가능한 공간이 촬영되고, 촬영된 공간의 영상에서 평면을 식별하는 과정이 곧바로 시작될 수 있다.
도 7, 도 8 및 도 9는 영상 디바이스를 설치 가능한 공간의 영상에서 평면을 식별하고, 그리드를 표시하는 방법을 설명한다.
도 7을 참조하면, 제어부(600)는 평면을 식별하기 위한 기본 가이드 선(12a)을 표시하도록 디스플레이(310)를 제어할 수 있다. 제어부(600)는 카메라(100)에 의해 촬영된 공간의 영상과 기본 가이드 선(12a)을 함께 디스플레이(310) 상에 표시하고, 가이드 선(12a)을 기준으로 평면을 식별할 수 있다.
구체적으로, 디스플레이(310)에 표시된 기본 가이드 선(12a)이 벽면(W)과 바닥면(F)의 경계에 맞추어지면, 제어부(600)는 기본 가이드 선(12a)을 기준으로 상부 면을 벽면(W)으로 식별하고 하부 면을 바닥면(F)으로 식별할 수 있다. 제어부(600)는 식별한 벽면(W) 상에 그리드(20)를 표시하도록 디스플레이(310)를 제어할 수 있다.
제어부(600)는, 디스플레이(310)를 통해 기본 가이드 선(12a)을 벽면(W)과 바닥면(F)의 경계에 맞추라는 안내 문장을 포함하는 팝업 메시지(7)를 표시할 수 있다. 또한, 제어부(600)는 기본 가이드 선(12a) 아래에 확인 버튼(14)을 더 표시하도록 디스플레이(310)를 제어할 수 있다. 제어부(600)는 확인 버튼(14)을 누르는 사용자의 입력에 기초하여, 기본 가이드 선(12a)이 벽면(W)과 바닥면(F)의 경계에 맞추어진 것으로 판단하고, 벽면(W)을 식별할 수 있다. 또한, 제어부(600)는, 확인 버튼(14)에 대한 입력이 없는 경우에도, 기본 가이드 선(12a)이 벽면(W)과 바닥면(F)의 경계에 맞추어지면 자동으로 벽면(W)을 식별할 수 있다.
제어부(600)는, 식별된 평면인 벽면(W)에 대응하는 가상 평면(VP)을 생성할 수 있다. 또한, 제어부(600)는 가상 평면(VP) 상에 그리드(20)를 표시하도록 디스플레이(310)를 제어할 수 있다. 그리드(20)는 일정 크기를 갖는 복수의 셀(21)을 포함할 수 있다.
한편, 제어부(600)는, 이전 화면으로 되돌아가는 명령을 입력할 수 있는 되돌아가기(Return) 아이콘(40), 그리드(20)의 패턴을 변경하는 명령 및/또는 그리드(20)의 표시를 온/오프 하는 명령을 입력할 수 있는 패턴 아이콘(50), 평면 식별을 다시 수행하는 명령 및/또는 영상 디바이스의 가상 이미지(30)를 삭제하는 명령을 입력할 수 있는 새로 고침(Restart) 아이콘(60), 시뮬레이션 과정 및/또는 시뮬레이션 결과를 비디오로 저장하는 명령을 입력할 수 있는 레코딩 아이콘(70), 시뮬레이션 과정 및/또는 시뮬레이션 결과를 스크린샷 이미지로 저장하는 명령을 입력할 수 있는 스크린샷 아이콘(80)을 표시하도록 디스플레이(310)를 제어할 수 있다.
또한, 제어부(600)는 영상 디바이스의 카테고리, 모델 및 사이즈에 관한 선택을 가능하게 하는 메뉴 바(90)를 표시하도록 디스플레이(310)를 제어할 수 있다. 영상 디바이스의 카테고리는 여러 가지가 있을 수 있다. 예를 들면, 영상 디바이스의 카테고리는 디지털 사이니지(Digital Signage), 독립형(Stand-alone), 비디오 월(Video Wall), 아웃도어(Outdoor), 인터랙티브(Interactive), 스페셜티(Specialty) 등으로 구별될 수 있다. 이러한 영상 디바이스의 카테고리는 제품 특성, 마케팅 요구 사항 등에 의해 결정될 수 있다. 또한, 각각의 카테고리는 복수의 제품 모델을 포함할 수 있다. 또한, 각각의 제품 모델은 서로 다른 사이즈를 가질 수 있다.
도 8 및 도 9를 참조하면, 제어부(600)는 공간의 코너에 있는 평면을 식별하기 위한 코너 가이드 선(12b, 12c)을 표시하도록 디스플레이(310)를 제어할 수 있다. 제어부(600)는 카메라(100)에 의해 촬영된 공간의 영상과 코너 가이드 선(12b, 12c)을 함께 디스플레이(310) 상에 표시하고, 코너 가이드 선(12b, 12c)을 기준으로 평면을 식별할 수 있다. 제어부(600)는 가이드 선(12)을 변경하는 사용자의 입력에 기초하여, 기본 가이드 선(12a) 또는 코너 가이드 선(12b, 12c)을 표시하도록 디스플레이(310)를 제어할 수 있다.
도 8을 참조하면, 디스플레이(310)에 표시된 제1 코너 가이드 선(12b)이 벽면(W)과 바닥면(F)의 경계 및 벽면(W)이 안쪽으로 꺾이는 위치에 맞추어지면, 제어부(600)는 제1 코너 가이드 선(12b)을 기준으로 상부 양쪽 면을 좌우 벽면(W)으로 식별하고 하부 면을 바닥면(F)으로 식별할 수 있다. 제어부(600)는 식별한 좌우 벽면(W) 상에 그리드(20)를 표시하도록 디스플레이(310)를 제어할 수 있다.
도 9를 참조하면, 디스플레이(310)에 표시된 제2 코너 가이드 선(12c)이 벽면(W)과 바닥면(F)의 경계 및 벽면(W)이 바깥쪽으로 꺾이는 위치에 맞추어지면, 제어부(600)는 제2 코너 가이드 선(12c)을 기준으로 상부 양쪽 면을 좌우 벽면(W)으로 식별하고 하부 면을 바닥면(F)으로 식별할 수 있다. 제어부(600)는 식별한 좌우 벽면(W) 상에 그리드(20)를 표시하도록 디스플레이(310)를 제어할 수 있다.
제1 코너 가이드 선(12b)과 제2 코너 가이드 선(12b)은, 3차원 좌표축(X축, Y축, Z축)과 같은 아이콘으로 표시될 수 있고, 서로 다른 형상을 가질 수 있다. 예를 들면, 제1 코너 가이드 선(12b)은 삼각형의 꼭지점과 삼각형의 중심을 연결하는 세 개의 선분을 갖는 형상일 수 있다. 제2 코너 가이드 선(12b)은 아래쪽 방향의 화살표 형상일 수 있다.
한편, 카메라(100)의 시점이 이동하는 경우, 그리드(20)는 연속적으로 표시될 수 있다. 예를 들면, 평면이 식별되고 그에 대응하는 가상 평면(VP) 상에 그리드(20)가 표시된 후 카메라(100)의 시점이 이동하는 경우, 제어부(600)는 카메라(100)의 시점이 이동하는 것에 따라 그리드(20)를 평면 상에 연속적으로 표시하도록 디스플레이(310)를 제어할 수 있다.
벽면(W)은 카메라(100)를 통해 디스플레이(310)에 표시되는 것보다 넓은 면을 가질 수 있기 때문에, 제어부(600)는 카메라(100)의 시야 내에 존재하는 평면보다 넓은 영역을 갖는 가상 평면(VP)을 생성할 수 있다. 그리드(20)는 가상 평면(VP) 전체에 표시되는 것으로 이해될 수 있다. 따라서 카메라(100)의 시점이 이동하더라도 그리드(20)가 연속적으로 표시될 수 있다. 이 경우, 그리드(20)가 표시되는 3차원 좌표축은 변경되지 않는다.
이와 같이, 영상 디바이스가 설치될 수 있는 공간 또는 평면을 자동으로 식별할 수 있으므로, 영상 디바이스 설치를 위한 시뮬레이션이 보다 용이해질 수 있다. 또한, 영상 디바이스의 설치가 가능한 평면에 그리드를 표시함으로써, 설치될 영상 디바이스의 크기가 쉽게 파악될 수 있다. 실제 영상 디바이스의 크기와 동일한 영상 디바이스의 가상 이미지를 표시함으로써, 보다 현실감 있는 시뮬레이션이 가능하다.
도 10, 도 11 및 도 12는 그리드를 조절하는 것을 설명한다.
도 10, 도 11 및 도 12를 참조하면, 그리드(20)가 공간 내의 벽면과 어긋나게 표시될 수 있다. 이러한 현상은 공간 내의 평면을 식별하는 과정에서 발생하는 오차 때문일 수 있다. 따라서 그리드(20)가 식별된 평면과 어긋나게 표시된 경우, 그리드(20)를 조절하는 기능이 필요하다.
도 10은 도 7로부터 이어질 수 있다. 도 10을 참조하면, 제어부(600)는 사용자의 입력에 기초하여 그리드(20)를 이동시킬 수 있다. 사용자의 입력은 터치 입력 및/또는 제스처 입력을 포함한다. 구체적으로, 제어부(600)는 그리드(20)를 조절하는 사용자의 입력에 기초하여 그리드(20)의 위치 및 방향 중 적어도 하나를 변경할 수 있다. 제어부(600)는, 그리드(20)를 이동시키는 사용자의 입력에 기초하여 그리드(20)의 시작선을 식별된 평면의 경계선에 매칭시킬 수 있다. 그리드(20)를 이동시키기 위한 사용자의 입력은 디스플레이(310) 상에서 그리드(20)를 길게 터치하고 드래그하는 것일 수 있다. 그리드(20)를 길게 터치하면 그리드(20)가 이동 가능한 상태로 표시될 수 있다. 예를 들면, 그리드(20)가 점선으로 변경될 수 있다. 그리드(20)의 색상이 변경될 수도 있다.
또한, 제어부(600)는 그리드(20)의 방향을 회전시키는 사용자의 입력에 기초하여 그리드(20)의 방향을 회전시킬 수 있다. 그리드(20)의 방향을 회전시키는 사용자의 입력은 디스플레이(310) 상에서 그리드(20)의 두 지점을 동시에 터치하고, 두 지점 중 한 지점을 드래그 하는 것일 수 있다. 예를 들면, 그리드(20)의 방향은 왼쪽으로 0도부터 180도까지의 범위에서 회전될 수 있다. 또한, 그리드(20)의 방향은 오른쪽으로 0도부터 180도까지의 범위에서 회전될 수 있다.
도 11은 도 8로부터 이어지고, 도 12는 도 9로부터 이어질 수 있다.
도 11 및 도 12를 참조하면, 그리드(20)가 좌우 벽면(W)과 어긋나게 표시될 수 있다. 이 경우, 제어부(600)는 사용자의 입력에 기초하여 그리드(20) 전체를 이동시키거나 회전시킬 수 있다. 또한, 제어부(600)는 좌측 벽면에 대응하는 그리드(20)와 우측 벽면에 대응하는 그리드(20)를 독립적으로 조절할 수 있다. 즉, 제어부(600)는 사용자 입력에 기초하여, 각각의 평면에 대응하는 그리드(20)를 독립적으로 조절할 수 있다.
도 10에서 설명한 바와 같이, 제어부(600)는, 그리드(20)를 이동시키는 사용자의 입력에 기초하여 그리드(20)의 시작선을 식별된 평면의 경계선에 매칭시킬 수 있다. 그리드(20)를 이동시키기 위한 사용자의 입력은 디스플레이(310) 상에서 그리드(20)를 길게 터치하고 드래그하는 것일 수 있다. 그리드(20)를 길게 터치 하면 해당 그리드(20)를 포함하는 가상 평면(VP)이 이동 가능한 상태로 표시될 수 있다. 예를 들면, 그리드(20)가 점선으로 변경될 수 있다. 그리드(20)의 색상이 변경될 수도 있다.
그리드(20)의 방향을 회전시키는 사용자의 입력은, 디스플레이(310) 상에서 그리드(20)의 두 지점을 동시에 터치하고, 두 지점 중 한 지점을 드래그 하는 것일 수 있다. 예를 들면, 그리드(20)의 방향은 왼쪽으로 0도부터 180도까지의 범위에서 회전될 수 있다. 또한, 그리드(20)의 방향은 오른쪽으로 0도부터 180도까지의 범위에서 회전될 수 있다.
한편, 메뉴 바(90)는 숨겨질 수 있다. 다시 말해, 제어부(600)는, 메뉴 바(90)를 닫는 사용자의 입력에 기초하여, 메뉴 바(90)를 숨기고 메뉴 지시자(Menu Indicator)(95)를 표시하도록 디스플레이(310)를 제어할 수 있다. 또한, 제어부(600)는 미리 정해진 시간이 경과하면 메뉴 바(90)를 메뉴 지시자(95)로 변환할 수 있다. 또한, 제어부(600)는 특정 기능(ex. 영상 디바이스의 가상 이미지를 회전시키는 기능)이 수행되는 것에 대응하여 메뉴 바(90)를 메뉴 지시자(95)로 변환할 수 있다. 반대로, 제어부(600)는, 메뉴 지시자(95)가 표시된 상태에서 메뉴 바(90)를 오픈하는 사용자의 입력에 기초하여, 메뉴 바(90)를 표시하도록 디스플레이(310)를 제어할 수 있다.
도 13은 그리드의 패턴을 변경하는 것을 설명한다.
도 13을 참조하면, 제어부(600)는 표시되는 그리드(20)의 패턴을 변경할 수 있다. 예를 들면, 그리드(20)는 정사각형 패턴, 직사각형 패턴 또는 대각선 패턴으로 표시될 수 있다. 그리드(20)의 패턴은 이에 한정되지 않고, 다양하게 설정될 수 있다. 대각선 패턴은, 식별된 평면(ex. 벽면(W))과 영상 디바이스의 가상 이미지(30)를 보다 쉽게 구별하기 위해 선택될 수 있다.
제어부(600)는 사용자의 입력에 기초하여 그리드(20)의 패턴을 변경할 수 있다. 또한, 제어부(600)는 사용자의 입력에 기초하여 그리드(20)의 표시를 온/오프 할 수 있다. 사용자가 패턴 아이콘(50)을 터치하는 경우, 정사각형 패턴의 그리드(20)는 대각선 패턴의 그리드(20)로 변경될 수 있다. 또한, 사용자가 패턴 아이콘(50)을 다시 터치하는 경우, 그리드(20)의 표시가 오프 될 수 있다. 다시 말해, 패턴 아이콘(50)을 이용하여, 그리드(20)의 패턴을 변경하는 명령 및/또는 그리드(20)의 표시를 온/오프 하는 명령이 입력될 수 있다.
도 14, 도 15 및 도 16은 영상 디바이스의 가상 이미지를 그리드 상에 표시하는 일 실시예를 설명한다. 도 17은 영상 디바이스의 가상 이미지를 회전시켜 표시하는 것을 설명한다.
도 14를 참조하면, 상술한 바와 같이, 제어부(600)는 영상 디바이스의 카테고리, 모델 및 사이즈에 관한 선택을 가능하게 하는 메뉴 바(90)를 표시하도록 디스플레이(310)를 제어할 수 있다. 또한, 제어부(600)는 메뉴 바(90)에서 영상 디바이스를 선택하는 사용자의 입력에 기초하여, 영상 디바이스의 가상 이미지(30)를 표시하도록 디스플레이(310)를 제어할 수 있다.
메뉴 바(90)는 복수의 카테고리 아이콘(91)을 포함할 수 있다. 또한, 복수의 카테고리 아이콘(91)은 스크롤(ex. 횡방향 스크롤) 될 수 있다. 카테고리 아이콘(91)의 개수가 메뉴 바(90) 영역에 표시될 수 있는 개수보다 많은 경우, 메뉴 바(90)에 표시되지 않은 카테고리 아이콘(91)은 사용자에 의한 스크롤(ex. 횡방향 스크롤) 입력을 통해 확인될 수 있다.
또한, 각각의 카테고리는 복수의 제품 모델을 포함할 수 있다. 제어부(600)는 복수의 카테고리 아이콘(91) 중 어느 하나를 선택하는 사용자의 입력에 기초하여, 선택된 카테고리에 포함되는 복수의 모델 아이콘(92)을 표시하도록 디스플레이(310)를 제어할 수 있다. 예를 들면, 사용자가 제1 카테고리를 선택하는 경우, 제1 카테고리에 포함되는 복수의 모델을 나타내는 모델 아이콘(92)이 메뉴 바(90)에 표시될 수 있다. 이 경우, 메뉴 바(90)의 상단에는 카테고리 정보가 표시될 수 있다. 복수의 모델 아이콘(92) 또한 스크롤(ex. 횡방향 스크롤) 될 수 있다.
도 15를 참조하면, 제어부(600)는, 메뉴 바(90) 상에 영상 디바이스의 사이즈를 선택 가능하게 하는 사이즈 아이콘(93) 및 영상 디바이스의 가상 이미지(30)를 회전 가능하게 하는 회전 아이콘(94)를 더 표시하도록 디스플레이(310)를 제어할 수 있다. 제어부(600)는 복수의 모델 아이콘(92) 중 어느 하나(ex. Model 1)를 선택하는 사용자의 입력에 기초하여, 선택된 모델(ex. Model 1)의 사이즈를 선택하게 하는 사이즈 아이콘(93)을 표시하도록 디스플레이(310)를 제어할 수 있다.
도 16을 참조하면, 제어부(600)는 복수의 사이즈 아이콘(93a, 93b, 93c)를 표시하도록 디스플레이(310)를 제어할 수 있다. 메뉴 바(90)에 사이즈 아이콘(93)이 표시되는 경우, 메뉴 바(90)의 상단에는 카테고리 정보 및 모델 정보가 표시될 수 있다. 사용자가 특정 사이즈를 선택하면, 선택된 사이즈를 갖는 영상 디바이스의 가상 이미지(30)가 그리드(30) 상에 표시될 수 있다.
또한, 제어부(600)는 그리드(20)의 특정 영역을 선택하는 사용자의 입력에 기초하여, 그리드(20)의 특정 영역에 영상 디바이스의 가상 이미지(30)를 표시하도록 디스플레이(310)를 제어할 수 있다. 예를 들면, 사용자가 46인치 사이즈 아이콘(93b)을 터치하고, 그리드(20)의 특정 영역을 터치하는 경우, 46인치 사이즈를 갖는 Model 1에 대응하는 영상 디바이스의 가상 이미지(30)가 그리드(20)의 특정 영역에 표시될 수 있다. 특정 영역은 그리드(20)에 포함되는 적어도 하나의 셀(21)을 의미할 수 있다. 또한, 제어부(600)는 사용자의 입력에 기초하여 표시된 영상 디바이스의 가상 이미지(30)를 이동시킬 수 있다.
또한, 제어부(600)는 표시되는 영상 디바이스의 가상 이미지(30)에 대응하는 영상 디바이스의 모델명, 크기, 해상도 및 바닥으로부터의 거리 중 적어도 하나를 포함하는 텍스트를 더 표시하도록 디스플레이(310)를 제어할 수 있다. 도 16에서, 영상 디바이스의 가상 이미지(30) 상단에 모델명이 Model 1이고, 크기는 46인치라는 것이 표시되고, 바닥으로부터 거리가 1m인 것이 표시되어 있다.
도 17을 참조하면, 제어부(600)는 영상 디바이스의 가상 이미지(30)를 회전시키는 사용자의 입력에 기초하여, 가상 평면(VP) 상에서 회전된 영상 디바이스의 가상 이미지(30)를 표시하도록 디스플레이(310)를 제어할 수 있다. 예를 들면, 영상 디바이스의 가상 이미지(30)가 표시된 상태에서, 회전 아이콘(94)에 사용자의 터치 입력이 있는 경우, 영상 디바이스의 가상 이미지(30)는 왼쪽 방향 또는 오른쪽 방향으로 90도 회전될 수 있다.
또한, 제어부(600)는, 영상 디바이스의 가상 이미지(30)가 표시된 영역에 입력되는 사용자의 제스처에 기초하여, 영상 디바이스의 가상 이미지(30)를 회전시킬 수 있다. 예를 들면, 영상 디바이스의 가상 이미지(30)의 두 지점을 동시에 터치하고 두 지점 중 한 지점을 드래그 하는 사용자의 입력이 있는 경우, 영상 디바이스의 가상 이미지(30)가 회전될 수 있다. 이 경우 영상 디바이스의 가상 이미지(30)는 왼쪽 방향 또는 오른쪽 방향으로 0도부터 90도 범위 내에서 회전할 수 있다. 제어부(600)는, 영상 디바이스의 가상 이미지를 회전시키는 것에 대응하여 메뉴 바(90)를 메뉴 지시자(95)로 변환할 수 있다.
한편, 영상 디바이스의 가상 이미지(30)가 표시된 후, 사용자가 모바일 장치(1)를 움직여 카메라(100)가 바라보는 방향이 변경되더라도, 영상 디바이스의 가상 이미지(30)는 실제 공간의 벽면에 고정되어 있는 것처럼 보여질 수 있다.
도 18은 영상 디바이스의 가상 이미지를 복수 개 표시하는 것을 설명한다.
도 18을 참조하면, 제어부(600)는 영상 디바이스를 추가 선택하는 사용자의 입력에 기초하여, 영상 디바이스의 가상 이미지(30)를 복수 개 표시하도록 디스플레이(310)를 제어할 수 있다. 예를 들면, 제1 영상 디바이스의 가상 이미지(30a)가 표시된 상태에서, 동일 카테고리(ex. Category 1)의 Model 4를 선택하고, Model 4의 사이즈(ex. 55인치)를 선택하는 사용자의 입력이 있는 경우, 제어부(600)는 디스플레이(310)를 통해 제1 영상 디바이스의 가상 이미지(30a)와 겹치지 않는 영역에 제2 영상 디바이스의 가상 이미지(30b)를 표시할 수 있다. 또한, 상술한 바와 같이, 제2 영상 디바이스의 가상 이미지(30b)는, 그리드(20)의 특정 영역을 선택하는 사용자의 입력에 기초하여, 그리드(20)의 특정 영역에 표시될 수도 있다.
동일 카테고리의 다른 모델에 관한 영상 디바이스의 가상 이미지를 추가로 표시하는 것을 설명하였으나, 다른 카테고리에 포함되는 영상 디바이스가 선택되는 경우, 서로 다른 카테고리에 포함되는 복수의 영상 디바이스의 가상 이미지가 표시될 수도 있다.
또한, 제어부(600)는 영상 디바이스의 카테고리 또는 모델에 따라 다른 그리드(20)를 표시하도록 디스플레이(310)를 제어할 수 있다. 예를 들면, Model 1이 선택되었을 때 제1 크기의 셀(21)을 갖는 그리드(20)가 표시될 수 있고, Model 2가 선택되었을 때 제2 크기의 셀(21)을 갖는 그리드(20)가 표시될 수 있다.
이와 같이, 다양한 카테고리, 다양한 모델 및 다양한 사이즈를 갖는 영상 디바이스에 대한 설치 시뮬레이션이 가능하므로, 영상 디바이스 설치의 시뮬레이션이 보다 용이해질 수 있다. 또한, 시뮬레이션 도구로서 활용 범위가 증대될 수 있다.
도 19, 도 20, 도 21, 도 22 및 도 23은 영상 디바이스의 가상 이미지를 표시하는 다른 실시예를 설명한다.
이하 설명되는 영상 디바이스의 가상 이미지를 표시하는 방법은, 영상 디바이스의 카테고리가 디스플레이 모듈을 복수 개 연결하는 것(ex. 디지털 사이니지)일 경우, 더 유용하게 사용될 수 있다. 그리드(20)의 하나의 셀(21)은 하나의 디스플레이 모듈에 대응할 수 있다.
도 19를 참조하면, 제어부(600)는 그리드(20)에 포함된 적어도 하나의 셀(21)을 선택하는 사용자의 입력에 기초하여, 선택된 적어도 하나의 셀(21) 상에 영상 디바이스의 가상 이미지(30)를 표시하도록 디스플레이(310)를 제어할 수 있다. 구체적으로, 사용자가 그리드(20) 상의 임의의 위치에 있는 셀(21)을 터치하고 드래그 앤 드랍을 통해 복수의 셀(21)을 선택할 수 있다. 제어부(600)는 선택된 복수의 셀(21)에 대응하는 크기를 갖는 영상 디바이스의 가상 이미지(30)를 생성하고, 이를 디스플레이(310) 상에 표시할 수 있다.
한편, 디스플레이 모듈은 복수의 LED 픽셀을 포함한다. 피치(Pitch)는 LED 픽셀 사이의 거리를 의미한다. 또한, 피치가 작을수록 해상도가 높다는 것을 나타낸다. 사이즈 아이콘(93)은 피치(Pitch)를 표시할 수 있다. 사용자는 메뉴 바(90)에서 시뮬레이션 할 영상 디바이스의 카테고리, 모델 및 피치를 선택할 수 있다. 도 19에는, 카테고리 2(ex. 디지털 사이니지)에 속하고 피치가 0.8인 모델 2가 선택되어 있다. 이후, 제어부(600)는 메뉴 바(90)를 메뉴 지시자(95)로 변환할 수 있다.
영상 디바이스의 가상 이미지(30)는 복수의 셀(21)이 선택된 이후 표시되거나, 복수의 셀(21)이 선택되는 동안 선택된 셀(21)의 순서에 따라 순차적으로 표시될 수 있다. 또한, 제어부(600)는 복수의 셀(21)이 선택되는 동안 선택된 셀(21)이 구별되어 표시되도록 디스플레이(310)를 제어할 수 있다. 예를 들면, 선택된 셀(21)의 색상이 변경되어 표시될 수 있다.
도 19에는 14개의 셀(7x2)에 대응하는 크기(43인치)를 갖는 영상 디바이스의 가상 이미지(30)가 표시되어 있다. 단위 셀(21)의 크기는 실제 영상 디바이스의 크기에 대응하여 미리 설정되어 있는 것일 수 있다. 셀(21)의 크기는 영상 디바이스의 피치에 따라 달라질 수도 있다. 또한, 단위 셀(21)의 크기는 사용자의 입력에 기초하여 변경될 수도 있다. 그리드(20)는 일정 크기를 갖는 복수의 셀(21)로 구성되고, 사용자는 선택하는 셀(21)의 개수를 조절할 수 있으므로, 영상 디바이스의 가상 이미지의 크기를 다양하게 조절할 수 있다.
상술한 바와 같이, 제어부(600)는 표시되는 영상 디바이스의 가상 이미지(30)에 대응하는 영상 디바이스의 모델명, 크기, 해상도 및 바닥으로부터의 거리 중 적어도 하나를 포함하는 텍스트를 더 표시하도록 디스플레이(310)를 제어할 수 있다. 도 19 에서, 영상 디바이스의 가상 이미지(30) 상단에 모델명은 Model 2, 크기는 7x2(43인치) 및 해상도는 3840*1200이라는 정보가 표시되고, 하단에 바닥으로부터 거리가 1m라는 정보가 표시되어 있다.
또한, 카메라(100)가 벽면(W)의 다른 영역을 바라보게 되는 경우, 사용자는 벽면(W)의 다른 영역에 표시되는 셀(21)을 연결하여 선택할 수 있다. 다시 말해, 사용자의 셀(21) 선택 입력이 유지되고 있는 경우, 제어부(600)는 이미 선택되어 디스플레이(310) 상에 표시되지 않는 셀(21)과 디스플레이(310) 상에 표시되어 선택되는 셀(21)을 연결할 수 있다. 즉, 사용자가 그리드(20)의 셀(21)을 선택함에 있어서, 카메라(100)의 응시 방향이 고정되어야 하는 것은 아니다.
도 20을 참조하면, 제어부(600)는, 영상 디바이스의 가상 이미지(30)의 위치를 변경하는 사용자의 입력에 기초하여, 영상 디바이스의 가상 이미지(30)가 표시되는 위치를 변경할 수 있다. 즉, 사용자의 드래그 앤 드랍 입력에 따라, 그리드(20) 상에서 영상 디바이스의 가상 이미지(30)가 위치 변경되어 표시될 수 있다.
도 21을 참조하면, 제어부(600)는, 영상 디바이스의 가상 이미지(30)가 표시된 영역에 입력되는 사용자의 제스처에 기초하여, 영상 디바이스의 가상 이미지(30)의 크기를 조절할 수 있다. 예를 들면, 영상 디바이스의 가상 이미지(30)의 두 지점을 동시에 터치하고 두 지점을 서로 반대로 드래그 하는 사용자의 입력이 있는 경우, 영상 디바이스의 가상 이미지(30)가 확대될 수 있다.
도 22를 참조하면, 제어부(600)는, 그리드(20) 상에서 추가 셀(21)을 선택하는 사용자의 입력에 기초하여, 제2 영상 디바이스의 가상 이미지(30b)를 추가하여 표시하도록 디스플레이(310)를 제어할 수 있다.
예를 들면, 사용자가 그리드(20) 상에 이미 존재하는 제1 영상 디바이스의 가상 이미지(30a)에 대응하는 셀(21)의 개수와 다른 개수의 셀(21)을 선택하는 경우, 제어부(600)는 제1 영상 디바이스의 가상 이미지(30a)와 추가되는 제2 영상 디바이스의 가상 이미지(30b)를 구별하여 표시하도록 디스플레이(310)를 제어할 수 있다.
도 22에서, 이미 표시된 제1 영상 디바이스의 가상 이미지(30a)는 14개 셀(7x2)을 포함한다. 추가 선택된 셀(21)의 개수가 8개(2X4)인 경우, 제어부(600)는 추가 선택된 셀(21)에 대응하는 제2 영상 디바이스의 가상 이미지(30b)를 제1 영상 디바이스의 가상 이미지(30a)와 구별하여 표시하도록 디스플레이(310)를 제어할 수 있다. 다시 말해, 추가 선택된 복수의 셀(21)의 가로 길이 또는 세로 길이가 제1 영상 디바이스의 가상 이미지(30a)의 가로 길이 또는 세로 길이와 다른 경우, 제2 영상 디바이스의 가상 이미지(30b)는 제1 영상 디바이스의 가상 이미지(30a)와 구별되어 표시될 수 있다.
또한, 제어부(600)는 제2 영상 디바이스의 가상 이미지(30b)에 대응하는 영상 디바이스의 모델명, 크기, 해상도 및 바닥으로부터의 거리 중 적어도 하나를 포함하는 텍스트를 더 표시하도록 디스플레이(310)를 제어할 수 있다. 도 22에서, 제2 영상 디바이스의 가상 이미지(30b) 상단에 모델명은 Model 3, 크기는 2x4(26인치) 및 해상도는 3840*1200이라는 정보가 표시되고, 하단에 바닥으로부터 거리가 60cm라는 정보가 표시되어 있다.
또한, 사용자가 제1 영상 디바이스의 가상 이미지(30a) 영역까지 포함하도록 셀(21)을 추가 선택하는 경우, 제어부(600)는 제1 영상 디바이스의 가상 이미지(30a)가 표시된 영역을 제외한 영역에 제2 영상 디바이스의 가상 이미지(30b)를 표시하도록 디스플레이(310)를 제어할 수 있다.
도 23을 참조하면, 영상 디바이스의 가상 이미지(30)와 이어지는 영역에서, 영상 디바이스의 가상 이미지(30)의 크기에 대응하는 셀(21)이 더 선택될 수 있다. 이 경우, 제어부(600)는, 추가로 선택되는 셀(21)에 기초하여, 크기가 확장된 영상 디바이스의 가상 이미지(30a)를 디스플레이(310)에 표시할 수 있다.
도 24는 그리드를 표시하거나 숨기는 것을 설명한다.
도 24를 참조하면, 패턴 아이콘(50)에 사용자의 터치 입력이 있는 경우, 디스플레이(310) 상에 표시된 그리드(20)가 제거될 수 있다. 즉, 제어부(600)는, 그리드(20)를 제외하고 카메라(100)에 의해 촬영된 공간의 영상과 영상 디바이스의 가상 이미지(30)를 표시하도록 디스플레이(310)를 제어할 수 있다. 이 때, 사용자가 모바일 장치(1)를 움직여 카메라(100)가 바라보는 방향이 변경되더라도, 영상 디바이스의 가상 이미지(30)는 실제 공간의 벽면에 고정되어 있는 것처럼 보여질 수 있다. 따라서 사용자는 실제 공간의 벽면(W)에 영상 디바이스가 어떻게 설치될 수 있는지 보다 쉽게 확인할 수 있다.
도 25 및 도 26은 영상 디바이스의 가상 이미지를 삭제하는 것을 설명한다.
도 25를 참조하면, 제어부(600)는 사용자의 입력에 기초하여 영상 디바이스의 가상 이미지를 삭제할 수 있다. 제어부(600)는, 영상 디바이스의 가상 이미지가 복수 개 표시된 경우, 영상 디바이스의 가상 이미지(30a, 30b)를 삭제하는 사용자의 입력에 기초하여, 복수 개의 영상 디바이스의 가상 이미지 전부를 삭제할 수 있다.
예를 들면, 새로 고침(Restart) 아이콘(60)은 영상 디바이스의 가상 이미지(30)를 삭제하는 명령을 입력하는데 사용될 수 있다. 그리드(20) 상에 영상 디바이스의 가상 이미지(30)가 표시되어 있는 상태에서, 새로 고침(Restart) 아이콘(60)에 사용자의 터치가 입력되는 경우, 영상 디바이스의 가상 이미지(30) 전부가 삭제될 수 있다.
또한, 새로 고침(Restart) 아이콘(60)은 평면 식별을 다시 수행하는 명령을 입력하는데 사용될 수도 있다. 제어부(600)는 사용자의 입력에 기초하여 평면을 다시 식별하고, 다시 식별한 평면에 대응하는 가상 평면 상에 새로운 그리드(20)를 생성할 수 있다. 예를 들면, 제어부(600)는, 그리드(20) 상에 영상 디바이스의 가상 이미지(30)가 표시되어 있지 않은 상태에서 새로 고침 아이콘(60)에 사용자의 터치가 입력되는 경우, 평면을 다시 식별하고, 다시 식별한 평면에 대응하는 가상 평면 상에 새로운 그리드(20)를 생성할 수 있다. 평면을 다시 식별하고 새로운 그리드(20)를 생성하는 것은 되돌아가기 아이콘(40)을 터치하는 사용자의 입력에 의해서도 수행될 수 있다.
도 26을 참조하면, 제어부(600)는, 영상 디바이스의 가상 이미지가 복수 개 표시된 경우, 영상 디바이스의 가상 이미지(30a, 30b)를 삭제하는 사용자의 입력에 기초하여, 복수 개의 영상 디바이스의 가상 이미지를 선택적으로 삭제할 수 있다. 예를 들면, 제1 영상 디바이스의 가상 이미지(30a)와 제2 영상 디바이스의 가상 이미지(30b)가 표시되어 있는 경우, 제1 영상 디바이스의 가상 이미지(30a)와 제2 영상 디바이스의 가상 이미지(30b) 중 하나가 삭제될 수 있다. 구체적으로, 제어부(600)는, 제2 영상 디바이스의 가상 이미지(30b)를 길게 누르는 사용자의 입력에 기초하여, 제2 영상 디바이스의 가상 이미지(30b)를 삭제 가능한 상태로 변경할 수 있다. 도 26에서, 제2 영상 디바이스의 가상 이미지(30b) 가운데 영역에 X가 표시됨으로써, 제2 영상 디바이스의 가상 이미지(30b)가 삭제 가능한 상태로 변경된다. 이후, 제어부(600)는, 제2 영상 디바이스의 가상 이미지(30b) 가운데 영역에 표시된 X를 터치하는 사용자의 입력에 기초하여, 제2 영상 디바이스의 가상 이미지(30b)를 삭제할 수 있다. 즉, 제어부(600)는 사용자의 입력에 기초하여 복수 개의 영상 디바이스의 가상 이미지 중 일부를 삭제할 수 있다.
한편, 상술한 바와 같이, 되돌아가기 아이콘(40)은 이전 화면으로 되돌아가는 명령을 입력하는데 사용될 수 있다. 제어부(600)는, 되돌아가기 아이콘(40)을 터치하는 사용자의 입력에 기초하여, 복수 개의 영상 디바이스의 가상 이미지를 순차적으로 삭제할 수도 있다. 예를 들면, 순차적으로 표시된 복수의 영상 디바이스의 가상 이미지는 되돌아가기 명령이 입력될 때마다 역순으로 하나씩 삭제될 수 있다.
이와 같이, 사용자가 영상 디바이스의 가상 이미지의 크기 및 개수를 쉽게 조절할 수 있으므로, 영상 디바이스 설치를 다양하게 시뮬레이션 할 수 있다.
도 27, 도 28 및 도 29는 영상 디바이스의 가상 이미지가 표시되는 영역에 컨텐츠를 재생하는 것을 설명한다.
도 27을 참조하면, 제어부(600)는 컨텐츠를 선택하는 사용자의 입력에 기초하여, 영상 디바이스의 가상 이미지(30)가 표시된 영역에 컨텐츠를 표시하도록 디스플레이(310)를 제어할 수 있다. 구체적으로, 제어부(600)는 영상 디바이스의 가상 이미지(30)를 선택하는 사용자의 입력에 대응하여, 영상 디바이스의 가상 이미지(30) 주변에 적어도 하나의 가상 컨텐츠 이미지(VC)를 표시하도록 디스플레이(310)를 제어할 수 있다. 가상 컨텐츠 이미지(VC)는 영상 디바이스의 가상 이미지(30)에서 재생 가능한 컨텐츠 정보(ex. 썸네일 이미지)를 포함하는 이미지이다.
적어도 하나의 가상 컨텐츠 이미지(VC)는 다양한 패턴으로 배열될 수 있다. 예를 들면, 적어도 하나의 가상 컨텐츠 이미지(VC)는 영상 디바이스의 가상 이미지(30)를 둘러싸도록 원형으로 배열되거나, 영상 디바이스의 가상 이미지(30)를 중심으로 상하 방향 또는 대각선 방향으로 배열될 수 있다.
제어부(600)는 적어도 하나의 가상 컨텐츠 이미지(VC) 중 어느 하나를 선택하는 사용자의 입력에 기초하여, 선택된 가상 컨텐츠 이미지(VC)에 대응하는 컨텐츠를 영상 디바이스의 가상 이미지(30)가 표시된 영역에 표시하도록 디스플레이(310)를 제어할 수 있다. 도 27에서, 사용자가 가상 컨텐츠 이미지(VC) 중 Movie 4의 컨텐츠 정보를 포함하는 가상 컨텐츠 이미지(VC)를 선택하면, 영상 디바이스의 가상 이미지(30)가 표시된 영역에서 Movie 4가 재생될 수 있다. 적어도 하나의 가상 컨텐츠 이미지(VC)는 각각 서로 다른 컨텐츠 정보를 포함할 수 있고, Movie 4는 동영상일 수 있다.
또한, 적어도 하나의 가상 컨텐츠 이미지(VC)는 카테고리 별로 표시될 수 있다. 예를 들면, 컨텐츠 카테고리는 뮤직 비디오 카테고리, 영화 카테고리, 사진 카테고리 등으로 분류될 수 있다. 컨텐츠는 통신부(400)를 통해 외부 서버 등으로부터 획득되는 것이거나, 저장부(500) 및/또는 메모리(602)에 저장된 것일 수 있다. 제어부(600)는 My Gallery 아이콘(MG)을 선택하는 사용자의 입력에 기초하여, 저장부(500) 및/또는 메모리(602)에 저장된 컨텐츠의 목록을 표시하도록 디스플레이(310)를 제어할 수 있다.
도 28을 참조하면, 영상 디바이스의 가상 이미지(30) 주변에 적어도 하나의 가상 컨텐츠 이미지(VC)가 표시되어 있는 상태에서, 디스플레이(310) 상의 임의의 영역에 사용자의 스와이프(swipe) 제스처가 입력되는 경우, 제어부(600)는 영상 디바이스의 가상 이미지(30) 주변에 다른 가상 컨텐츠 이미지(VC)를 디스플레이(310)에 표시할 수 있다. 예를 들면, Movie 1, Movie 2, Movie 3, Movie 4 및 Movie 5를 나타내는 가상 컨텐츠 이미지(VC)가 표시되어 있는 상태에서 사용자의 스와이프(swipe) 제스처가 입력되는 경우, 영상 디바이스의 가상 이미지(30) 주변에는 Movie 6, Movie 7, Movie 8, Movie 9 및 Movie 10를 나타내는 가상 컨텐츠 이미지(VC)가 표시될 수 있다.
도 29를 참조하면, 영상 디바이스의 가상 이미지(30)가 표시된 영역에 컨텐츠(ex. Movie 4)가 표시되고 있는 동안, 영상 디바이스의 가상 이미지(30)를 회전시키는 명령이 입력될 수 있다. 이 경우, 제어부(600)는, 회전된 영상 디바이스 가상 이미지(30)의 화면 비율에 적합한 다른 컨텐츠(ex. Movie 6)를 표시하도록 디스플레이(310)를 제어할 수 있다.
이와 같이, 다양한 컨텐츠를 영상 디바이스의 가상 이미지가 표시된 영역에서 재생할 수 있으므로, 사용자는 보다 현실감 있는 시뮬레이션을 할 수 있다.
또한, 상술한 바와 같이, 일 측면에 따른 모바일 장치 및 모바일 장치의 제어 방법에 의하면, 영상 디바이스가 설치될 실제 공간의 영상에 실제 크기의 영상 디바이스에 대응하는 가상 이미지를 함께 표시함으로써, 사용자가 현실감 있게 영상 디바이스의 설치를 시뮬레이션 할 수 있다.
또한, 일 측면에 따른 모바일 장치 및 모바일 장치의 제어 방법에 의하면, 실제 크기의 영상 디바이스에 대응하는 가상 이미지가 표시된 영역에 컨텐츠를 재생함으로써, 보다 현실감 있는 시뮬레이션을 수행할 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 게시된 실시예가 속하는 기술분야에서 통상의 지식을 가진 자는 게시된 실시예의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되지 않아야 한다.
Claims (24)
- 디스플레이;영상 디바이스를 설치 가능한 공간을 촬영하는 카메라;사용자의 입력을 수신하는 사용자 인터페이스; 및상기 카메라에 의해 촬영된 공간의 영상에서 평면을 식별하고, 상기 평면에 대응하는 가상 평면에 그리드(Grid)를 표시하도록 상기 디스플레이를 제어하고, 상기 사용자의 입력에 기초하여 상기 그리드를 조절하고, 상기 영상 디바이스의 가상 이미지를 상기 그리드 상에 표시하도록 상기 디스플레이를 제어하는 제어부; 를 포함하는 모바일 장치.
- 제1항에 있어서,상기 제어부는상기 그리드를 조절하는 상기 사용자의 입력에 기초하여, 상기 그리드를 이동시키는 모바일 장치.
- 제1항에 있어서,상기 제어부는상기 그리드를 조절하는 상기 사용자의 입력에 기초하여, 상기 그리드의 방향을 회전시키는 모바일 장치.
- 제1항에 있어서,상기 제어부는상기 공간의 영상과 가이드 선을 함께 표시하도록 상기 디스플레이를 제어하고, 상기 가이드 선을 기준으로 상기 평면을 식별하는 모바일 장치.
- 제4항에 있어서,상기 제어부는상기 가이드 선을 기본 가이드 선 또는 코너 가이드 선으로 표시하도록 상기 디스플레이를 제어하는 모바일 장치.
- 제1항에 있어서,상기 제어부는상기 그리드의 특정 영역을 선택하는 상기 사용자의 입력에 기초하여, 상기 그리드의 특정 영역에 상기 영상 디바이스의 가상 이미지를 표시하도록 상기 디스플레이를 제어하는 모바일 장치.
- 제1항에 있어서,상기 제어부는상기 영상 디바이스의 가상 이미지를 회전시키는 상기 사용자의 입력에 기초하여, 상기 가상 평면 상에서 회전된 상기 영상 디바이스의 가상 이미지를 표시하도록 상기 디스플레이를 제어하는 모바일 장치.
- 제1항에 있어서,상기 제어부는상기 영상 디바이스의 가상 이미지에 대응하는 상기 영상 디바이스의 모델명, 크기, 해상도 및 바닥으로부터의 거리 중 적어도 하나를 포함하는 텍스트를 더 표시하도록 상기 디스플레이를 제어하는 모바일 장치.
- 제1항에 있어서,상기 제어부는상기 영상 디바이스의 카테고리, 모델 및 사이즈에 관한 선택을 가능하게 하는 메뉴 바를 표시하고, 상기 메뉴 바에서 상기 영상 디바이스를 선택하는 상기 사용자의 입력에 기초하여, 상기 영상 디바이스의 가상 이미지를 표시하도록 상기 디스플레이를 제어하는 모바일 장치.
- 제1항에 있어서,상기 제어부는상기 영상 디바이스의 가상 이미지가 복수 개 표시된 경우, 상기 영상 디바이스의 가상 이미지를 삭제하는 상기 사용자의 입력에 기초하여, 상기 복수 개의 영상 디바이스의 가상 이미지를 전부 삭제하거나 일부 삭제하는 모바일 장치.
- 제1항에 있어서,상기 제어부는컨텐츠를 선택하는 상기 사용자의 입력에 기초하여, 상기 영상 디바이스의 가상 이미지가 표시된 영역에 상기 컨텐츠를 표시하도록 상기 디스플레이를 제어하는 모바일 장치.
- 제1항에 있어서,상기 제어부는상기 영상 디바이스의 설치에 관한 시뮬레이션 결과를 비디오 및 스크린샷 이미지 중 적어도 하나로 저장하는 모바일 장치.
- 카메라에 의해, 영상 디바이스를 설치 가능한 공간을 촬영하는 단계;상기 카메라에 의해 촬영된 공간의 영상에서 평면을 식별하는 단계;디스플레이에 의해, 상기 평면에 대응하는 가상 평면에 그리드(Grid)를 표시하는 단계;사용자의 입력에 기초하여 상기 그리드를 조절하는 단계; 및상기 그리드 상에 상기 영상 디바이스의 가상 이미지를 표시하는 단계;를 포함하는 모바일 장치의 제어 방법.
- 제13항에 있어서,상기 그리드를 조절하는 단계는상기 그리드를 조절하는 상기 사용자의 입력에 기초하여, 상기 그리드를 이동시키는 단계;를 포함하는 모바일 장치의 제어 방법.
- 제13항에 있어서,상기 그리드를 조절하는 단계는상기 그리드를 조절하는 상기 사용자의 입력에 기초하여, 상기 그리드의 방향을 회전시키는 단계;를 포함하는 모바일 장치의 제어 방법.
- 제13항에 있어서,상기 디스플레이에 의해, 상기 공간의 영상과 가이드 선을 함께 표시하는 단계;를 더 포함하고,상기 평면을 식별하는 단계는상기 가이드 선을 기준으로 상기 평면을 식별하는 단계;를 포함하는 모바일 장치의 제어 방법.
- 제16항에 있어서,상기 공간의 영상과 가이드 선을 함께 표시하는 단계는상기 가이드 선을 기본 가이드 선 또는 코너 가이드 선으로 표시하는 단계;를 포함하는 모바일 장치의 제어 방법.
- 제13항에 있어서,상기 영상 디바이스의 가상 이미지를 표시하는 단계는상기 그리드의 특정 영역을 선택하는 상기 사용자의 입력에 기초하여, 상기 그리드의 특정 영역에 상기 영상 디바이스의 가상 이미지를 표시하는 단계;를 포함하는 모바일 장치의 제어 방법.
- 제13항에 있어서,상기 영상 디바이스의 가상 이미지를 표시하는 단계는상기 영상 디바이스의 가상 이미지를 회전시키는 상기 사용자의 입력에 기초하여, 상기 가상 평면 상에서 회전된 상기 영상 디바이스의 가상 이미지를 표시하는 단계;를 포함하는 모바일 장치의 제어 방법.
- 제13항에 있어서,상기 영상 디바이스의 가상 이미지에 대응하는 상기 영상 디바이스의 모델명, 크기, 해상도 및 바닥으로부터의 거리 중 적어도 하나를 포함하는 텍스트를 표시하는 단계;를 더 포함하는 모바일 장치의 제어 방법.
- 제13에 있어서,상기 영상 디바이스의 카테고리, 모델 및 사이즈에 관한 선택을 가능하게 하는 메뉴 바를 표시하는 단계;를 더 포함하고,상기 영상 디바이스의 가상 이미지를 표시하는 단계는상기 메뉴 바에서 상기 영상 디바이스를 선택하는 상기 사용자의 입력에 기초하여, 상기 영상 디바이스의 가상 이미지를 표시하는 단계;를 포함하는 모바일 장치의 제어 방법.
- 제13항에 있어서,상기 영상 디바이스의 가상 이미지가 복수 개 표시된 경우, 상기 영상 디바이스의 가상 이미지를 삭제하는 상기 사용자의 입력에 기초하여, 상기 복수 개의 영상 디바이스의 가상 이미지를 전부 삭제하거나 일부 삭제하는 단계;를 더 포함하는 모바일 장치의 제어 방법.
- 제13항에 있어서,컨텐츠를 선택하는 상기 사용자의 입력에 기초하여, 상기 영상 디바이스의 가상 이미지가 표시된 영역에 상기 선택된 컨텐츠를 표시하는 단계;를 더 포함하는 모바일 장치의 제어 방법.
- 제13항에 있어서,상기 영상 디바이스의 설치에 관한 시뮬레이션 결과를 비디오 및 스크린샷 이미지 중 적어도 하나로 저장하는 단계;를 더 포함하는 모바일 장치의 제어 방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20812726.6A EP3961362A4 (en) | 2019-05-31 | 2020-04-24 | MOBILE DEVICE AND METHODS FOR CONTROLLING A MOBILE DEVICE |
CN202080041046.1A CN113906379A (zh) | 2019-05-31 | 2020-04-24 | 移动设备和移动设备控制方法 |
US17/538,452 US12062143B2 (en) | 2019-05-31 | 2021-11-30 | Mobile device and mobile device control method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2019-0064224 | 2019-05-31 | ||
KR1020190064224A KR20200137594A (ko) | 2019-05-31 | 2019-05-31 | 모바일 장치 및 모바일 장치의 제어 방법 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/538,452 Continuation US12062143B2 (en) | 2019-05-31 | 2021-11-30 | Mobile device and mobile device control method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020242064A1 true WO2020242064A1 (ko) | 2020-12-03 |
Family
ID=73553225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2020/005415 WO2020242064A1 (ko) | 2019-05-31 | 2020-04-24 | 모바일 장치 및 모바일 장치의 제어 방법 |
Country Status (5)
Country | Link |
---|---|
US (1) | US12062143B2 (ko) |
EP (1) | EP3961362A4 (ko) |
KR (1) | KR20200137594A (ko) |
CN (1) | CN113906379A (ko) |
WO (1) | WO2020242064A1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11620599B2 (en) * | 2020-04-13 | 2023-04-04 | Armon, Inc. | Real-time labor tracking and validation on a construction project using computer aided design |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140133764A (ko) * | 2013-05-10 | 2014-11-20 | 세종대학교산학협력단 | 멀티 디스플레이 제어장치 및 콘텐츠 제공 방법 |
US20160189426A1 (en) * | 2014-12-30 | 2016-06-30 | Mike Thomas | Virtual representations of real-world objects |
US20170010692A1 (en) * | 2015-07-06 | 2017-01-12 | RideOn Ltd. | Augmented reality system and method |
KR101770648B1 (ko) * | 2016-05-18 | 2017-08-23 | 주식회사 큐픽스 | 파노라마와 3차원 건물평면도 기반 실내 가상체험 제공 방법, 이를 이용한 휴대용 단말기 및 그 동작 방법 |
JP2018032131A (ja) * | 2016-08-23 | 2018-03-01 | 株式会社コロプラ | 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007045835B4 (de) * | 2007-09-25 | 2012-12-20 | Metaio Gmbh | Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung |
KR101651620B1 (ko) | 2009-08-11 | 2016-08-29 | 엘지이노텍 주식회사 | 카메라 모듈을 이용한 디스플레이 장치의 컬러 보정 방법 및 장치 |
US9443353B2 (en) | 2011-12-01 | 2016-09-13 | Qualcomm Incorporated | Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects |
US9996636B2 (en) * | 2014-05-13 | 2018-06-12 | Atheer, Inc. | Method for forming walls to align 3D objects in 2D environment |
CA2956492A1 (en) * | 2014-07-30 | 2016-02-11 | Maticad S.R.L. | A method, mobile device and computer program for substituting a furnishing covering surface of in an image |
CN107852488B (zh) * | 2015-05-22 | 2021-03-30 | 三星电子株式会社 | 用于通过hmd设备显示虚拟图像的系统和方法 |
US20170256096A1 (en) | 2016-03-07 | 2017-09-07 | Google Inc. | Intelligent object sizing and placement in a augmented / virtual reality environment |
US10176641B2 (en) | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
KR102686185B1 (ko) | 2016-11-23 | 2024-07-19 | 삼성전자주식회사 | 디스플레이 장치, 캘리브레이션 장치 및 그 제어 방법 |
KR102620702B1 (ko) * | 2018-10-12 | 2024-01-04 | 삼성전자주식회사 | 모바일 장치 및 모바일 장치의 제어 방법 |
-
2019
- 2019-05-31 KR KR1020190064224A patent/KR20200137594A/ko not_active Application Discontinuation
-
2020
- 2020-04-24 EP EP20812726.6A patent/EP3961362A4/en active Pending
- 2020-04-24 CN CN202080041046.1A patent/CN113906379A/zh active Pending
- 2020-04-24 WO PCT/KR2020/005415 patent/WO2020242064A1/ko unknown
-
2021
- 2021-11-30 US US17/538,452 patent/US12062143B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140133764A (ko) * | 2013-05-10 | 2014-11-20 | 세종대학교산학협력단 | 멀티 디스플레이 제어장치 및 콘텐츠 제공 방법 |
US20160189426A1 (en) * | 2014-12-30 | 2016-06-30 | Mike Thomas | Virtual representations of real-world objects |
US20170010692A1 (en) * | 2015-07-06 | 2017-01-12 | RideOn Ltd. | Augmented reality system and method |
KR101770648B1 (ko) * | 2016-05-18 | 2017-08-23 | 주식회사 큐픽스 | 파노라마와 3차원 건물평면도 기반 실내 가상체험 제공 방법, 이를 이용한 휴대용 단말기 및 그 동작 방법 |
JP2018032131A (ja) * | 2016-08-23 | 2018-03-01 | 株式会社コロプラ | 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム |
Non-Patent Citations (1)
Title |
---|
See also references of EP3961362A4 * |
Also Published As
Publication number | Publication date |
---|---|
KR20200137594A (ko) | 2020-12-09 |
US20220084299A1 (en) | 2022-03-17 |
US12062143B2 (en) | 2024-08-13 |
EP3961362A1 (en) | 2022-03-02 |
CN113906379A (zh) | 2022-01-07 |
EP3961362A4 (en) | 2022-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014196758A1 (en) | Portable apparatus and screen displaying method | |
WO2014193101A1 (en) | Method and apparatus for controlling screen display using environmental information | |
WO2016195291A1 (en) | User terminal apparatus and method of controlling the same | |
WO2014182082A1 (en) | Display apparatus and display method for displaying a polyhedral graphical user interface | |
WO2016093506A1 (ko) | 이동 단말기 및 그 제어 방법 | |
WO2015030564A1 (en) | Display apparatus, portable device and screen display methods thereof | |
WO2011078540A2 (en) | Mobile device and related control method for external output depending on user interaction based on image sensing module | |
WO2017119664A1 (en) | Display apparatus and control methods thereof | |
WO2014088310A1 (en) | Display device and method of controlling the same | |
WO2014182086A1 (en) | Display apparatus and user interface screen providing method thereof | |
WO2010143843A2 (ko) | 컨텐츠 브로드캐스트 방법 및 이를 적용한 디바이스 | |
WO2014017841A1 (en) | User terminal apparatus and control method thereof cross-reference to related applications | |
WO2015005674A1 (en) | Method for displaying and electronic device thereof | |
WO2015186964A1 (ko) | 촬영 장치 및 촬영 장치의 비디오 생성방법 | |
WO2019139270A1 (ko) | 디스플레이 장치 및 이의 컨텐츠 제공 방법 | |
WO2017057960A1 (en) | Electronic device and method for controlling the same | |
WO2016167610A1 (ko) | 밝기를 조절하는 휴대 단말기 및 이의 밝기 조절 방법 | |
WO2019039739A1 (en) | DISPLAY APPARATUS AND METHOD FOR CONTROLLING THE SAME | |
WO2016122240A1 (en) | Electronic apparatus and method of setting network of audio device | |
WO2017052150A1 (en) | User terminal device, electronic device, and method of controlling user terminal device and electronic device | |
WO2018080152A1 (en) | Portable device and method for controlling screen in the portable device | |
WO2021080290A1 (en) | Electronic apparatus and control method thereof | |
WO2018074821A1 (ko) | 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법 | |
WO2018124823A1 (en) | Display apparatus and controlling method thereof | |
WO2018048178A1 (en) | Display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20812726 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2020812726 Country of ref document: EP Effective date: 20211126 |