KR102214338B1 - Control method, device and program of electronic device for augmented reality display - Google Patents

Control method, device and program of electronic device for augmented reality display Download PDF

Info

Publication number
KR102214338B1
KR102214338B1 KR1020200062129A KR20200062129A KR102214338B1 KR 102214338 B1 KR102214338 B1 KR 102214338B1 KR 1020200062129 A KR1020200062129 A KR 1020200062129A KR 20200062129 A KR20200062129 A KR 20200062129A KR 102214338 B1 KR102214338 B1 KR 102214338B1
Authority
KR
South Korea
Prior art keywords
information
code
movement
display
processor
Prior art date
Application number
KR1020200062129A
Other languages
Korean (ko)
Inventor
조광희
Original Assignee
조광희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조광희 filed Critical 조광희
Priority to KR1020200062129A priority Critical patent/KR102214338B1/en
Application granted granted Critical
Publication of KR102214338B1 publication Critical patent/KR102214338B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding

Abstract

The present invention provides a control method of an electronic device. The control method comprises: a step in which a camera acquires a product image including a QR code; a step in which a processor acquires the QR code image; a step in which the processor acquires size information of a previously stored QR code from a memory; a step in which the processor acquires gaze information and the size of a product displayed on a display based on the size information of the previously stored QR code and image information of the QR code; a step in which the processor acquires information on an object corresponding to the QR code based on the gaze information and the size of the product displayed on the display; a step in which the processor acquires an area on which the object is to be displayed based on the gaze information and the size of the product displayed on the display; and a step in which the display displays the acquired object on the area.

Description

증강현실 표시를 위한 전자 장치의 제어 방법, 장치 및 프로그램{Control method, device and program of electronic device for augmented reality display}Control method, device and program of electronic device for augmented reality display

본 발명은 증강현실 표시를 위한 전자 장치의 제어 방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a control method, an apparatus, and a program of an electronic device for displaying an augmented reality.

가상현실(Virtual Reality)은 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 기술이다. Virtual Reality is a technology that enables humans to experience real life in a virtual world created with computers.

한편, 가상현실(VR·virtual reality)과 현실 세계에 가상정보를 더해 보여주는 기술인 증강현실(AR:augmented reality)을 혼합한 기술은 혼합현실(MR:mixed reality)이라고 한다. VR과 AR, MR은 모두 실제로 존재하지 않은 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. 다만 AR은 실제 현실에 가상의 정보를 더해 보여주는 방식이고, VR은 모두 허구의 상황이 제시된다는 점에서 차이가 있다. MR은 AR과 VR을 혼합해 현실 배경에 현실과 가상의 정보를 혼합시켜 제공하는데, 대용량 데이터를 처리할 수 있는 기술이 필요하다.On the other hand, a technology that combines virtual reality (VR) and augmented reality (AR), a technology that adds virtual information to the real world, is called mixed reality (MR). VR, AR, and MR all have something in common in that they are technologies that enable people to recognize reality by realizing a reality that does not exist. However, there is a difference in that AR is a method of adding virtual information to real reality, and in VR, all fictional situations are presented. MR mixes AR and VR to provide a mixture of real and virtual information in a real background, and a technology that can process large amounts of data is required.

근래에는 스마트폰과 같은 전자 장치로 간단한 증강현실을 생성하여 표시하는 방법에 대한 연구가 활발한 실정이다.In recent years, research on a method of generating and displaying a simple augmented reality with an electronic device such as a smartphone is active.

등록특허공보 제10-1397873호, 2014.07.01Registered Patent Publication No. 10-1397873, 2014.07.01

본 발명이 해결하고자 하는 과제는 증강현실 표시를 위한 전자 장치의 제어 방법, 장치 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to provide a method, apparatus, and program for controlling an electronic device for displaying an augmented reality.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 카메라, 메모리, 디스플레이 및 프로세서를 포함하는 전자 장치의 제어 방법은, 상기 카메라가, QR 코드를 포함하는 제품 영상을 획득하는 단계; 상기 프로세서가, 상기 QR 코드 이미지를 획득하는 단계; 상기 프로세서가, 상기 메모리로부터 기 저장된 QR 코드의 크기 정보를 획득하는 단계; 상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 QR 코드의 이미지 정보를 바탕으로, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 획득하는 단계; 상기 프로세서가, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 바탕으로 상기 QR 코드에 대응되는 오브젝트에 대한 정보를 획득하는 단계; 상기 프로세서가, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 바탕으로 상기 오브젝트가 표시될 영역을 획득하는 단계; 및 상기 디스플레이가, 상기 획득된 오브젝트를 상기 영역에 표시하는 단계; 를 포함한다.A method of controlling an electronic device including a camera, a memory, a display, and a processor according to an aspect of the present invention for solving the above-described problems includes: obtaining, by the camera, a product image including a QR code; Obtaining, by the processor, the QR code image; Obtaining, by the processor, size information of a previously stored QR code from the memory; Obtaining, by the processor, size and gaze information of a product displayed on the display based on size information of the previously stored QR code and image information of the QR code; Acquiring, by the processor, information on an object corresponding to the QR code based on the size and gaze information of the product displayed on the display; Obtaining, by the processor, an area in which the object is to be displayed based on the size and gaze information of the product displayed on the display; And displaying, by the display, the acquired object in the area. Includes.

이때, 상기 제어 방법은, 상기 전자 장치의 이동에 따라 상기 QR 코드의 이미지의 크기 및 시선 정보가 기 설정된 비율 이상 변경되는 경우, 상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 변경된 QR 코드의 이미지 정보를 바탕으로, 상기 디스플레이에 표시되는 변경된 제품의 크기 및 변경된 시선 정보를 획득하는 단계; 상기 프로세서가, 상기 디스플레이에 표시되는 제품의 변경된 크기 및 변경된 시선 정보를 바탕으로 상기 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 상기 오브젝트가 표시될 변경된 영역을 획득하는 단계; 및 상기 디스플레이가, 상기 획득된 변경된 오브젝트를 상기 변경된 영역에 표시하는 단계; 를 포함할 수 있다.In this case, the control method is, when the size and gaze information of the image of the QR code is changed by more than a preset ratio according to the movement of the electronic device, the processor, the size information of the previously stored QR code and the changed QR code Acquiring the size and changed gaze information of the changed product displayed on the display based on the image information of Obtaining, by the processor, information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed, based on the changed size and changed gaze information of the product displayed on the display; And displaying, by the display, the acquired changed object in the changed area. It may include.

이때, 상기 오브젝트가 모닥불 오브젝트인 경우, 상기 제어 방법은, 상기 디스플레이의 상단 중앙 영역에, 상기 모닥불 오브젝트의 화력 세기를 조절하기 위한 UI를 표시하는 단계; 상기 UI를 통해 상기 모닥불 오브젝트의 화력 세기를 조절하기 위한 사용자 명령이 입력되면, 상기 사용자 명령에 대응되게 상기 모닥불 오브젝트를 변경하여 표시하는 단계;를 포함할 수 있다.In this case, when the object is a bonfire object, the control method may include displaying a UI for adjusting the intensity of fire power of the bonfire object in an upper center area of the display; When a user command for adjusting the intensity of the firepower of the bonfire object is input through the UI, changing and displaying the bonfire object corresponding to the user command.

이때, 상기 오브젝트가 물고기 오브젝트인 경우, 상기 표시하는 단계는, 상기 획득된 영역 내부에서 상기 물고기 오브젝트를 이동시키는 단계; 및 상기 물고기 오브젝트를 제어하기 위한 사용자 명령이 입력되면, 상기 사용자 명령에 대응되게 상기 물고기 오브젝트를 이동시키는 단계; 를 포함할 수 있다.In this case, when the object is a fish object, the displaying may include moving the fish object within the acquired area; And when a user command for controlling the fish object is input, moving the fish object to correspond to the user command. It may include.

이때, 상기 제어 방법은, 상기 카메라가, 기 설정된 주기마다 상기 QR 코드에 대한 정보를 업데이트 하는 단계; 및 상기 카메라가, 기 설정된 주기마다 상기 QR 코드 이미지를 업데이트 하는 단계;를 포함하고, 상기 QR 코드에 대한 정보를 업데이트 하는 단계는, 상기 카메라와 상기 QR 코드 사이에 장애물이 존재하여, 상기 QR 코드의 일부만 촬영되는 경우, 촬영된 상기 QR 코드의 일부를 바탕으로 QR 코드의 이미지 형상을 복원하는 단계; 및 상기 복원된 QR 코드의 이미지 형상을 바탕으로 상기 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 상기 오브젝트가 표시될 변경된 영역을 획득하는 단계;를 포함할 수 있다.In this case, the control method includes the steps of, by the camera, updating information on the QR code every preset period; And updating, by the camera, the QR code image every preset period, wherein the step of updating the information on the QR code includes an obstacle exists between the camera and the QR code, and the QR code When only a part of the QR code is photographed, restoring the image shape of the QR code based on a part of the photographed QR code; And acquiring information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed, based on the image shape of the restored QR code.

이때, 상기 물고기 오브젝트를 이동시키는 단계는, 상기 전자 장치의 사용자로부터 음성 신호를 입력 받아 음성 인식 데이터를 생성하는 단계; 상기 음성 인식 데이터에 기초하여 상기 물고기 오브젝트의 이동을 제어하는 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계; 상기 이동 제어 블록에 대응하여 상기 물고기 오브젝트의 이동을 제어하는 단계; 상기 이동 제어 블록을 나타내는 명령블록 이미지를 생성하는 단계; 및 상기 명령블록 이미지를 표시하는 단계; 를 포함할 수 있다.In this case, the moving of the fish object may include generating voice recognition data by receiving a voice signal from a user of the electronic device; Generating a movement control block for controlling movement of the fish object and a command corresponding to the movement control block based on the speech recognition data; Controlling the movement of the fish object in response to the movement control block; Generating a command block image representing the movement control block; And displaying the command block image. It may include.

이때, 상기 이동 제어 블록이 이동 속도 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는, 상기 음성 인식 데이터에 이동 속도 정보가 포함된 경우, 상기 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 및 상기 음성 인식 데이터에 이동 속도 정보가 포함되지 않은 경우 경우, 상기 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 상기 음절 간격 정보에 대응하여 상기 이동 속도 정보를 생성하고, 상기 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 를 포함할 수 있다.In this case, when the movement control block includes a movement speed control command, generating the movement control block and the command corresponding to the movement control block includes the movement speed information when the speech recognition data includes movement speed information. Generating a movement speed control statement corresponding to the speed information; And when movement speed information is not included in the speech recognition data, syllable spacing information is generated based on the speech recognition data, and the movement speed information is generated in response to the syllable spacing information, and the generated movement speed Generating a movement speed control statement corresponding to the information; It may include.

이때, 상기 이동 제어 블록이 이동 반복수 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는, 상기 음성 인식 데이터에 이동 반복수 정보가 포함된 경우, 상기 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계; 및 상기 음성 인식 데이터에 이동 반복수 정보가 포함되지 않은 경우, 상기 음성 신호에 기초하여 신호 세기 정보를 생성하고, 상기 신호 세기 정보에 대응하여 상기 이동 반복수 정보를 생성하고, 상기 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계;를 포함할 수 있다.At this time, when the movement control block includes a movement repetition number control command, the step of generating the movement control block and the command corresponding to the movement control block includes movement repetition number information in the speech recognition data, Generating a movement repetition number control statement corresponding to the movement repetition number information; And when movement repetition number information is not included in the speech recognition data, signal strength information is generated based on the speech signal, and the movement repetition number information is generated in response to the signal strength information, and the generated movement repetition It may include; generating a movement repetition number control statement corresponding to the number information.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

상술한 본 발명의 다양한 실시에 따라, 전자 장치는 QR 코드에 대응되는 증강 현실을 표시하고, 증강현실로 표시된 오브젝트를 제어할 수 있는 새로운 효과가 존재한다.According to various embodiments of the present invention described above, there is a new effect that an electronic device can display an augmented reality corresponding to a QR code and control an object displayed in the augmented reality.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 증강 현실을 제공하기 위한 전자 장치를 도시한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 전자 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 QR 코드의 구성을 설명하기 위한 예시도이다.
도 4a 내지 도 4d는 본 발명의 일 실시예에 따른 증강 현실 표시 방법을 도시한 예시도이다.
도 5a 내지 도 5d는 본 발명의 또 다른 실시예에 따른 증강 현실 표시 방법을 도시한 예시도이다.
1 is an exemplary diagram illustrating an electronic device for providing augmented reality according to an embodiment of the present invention.
2 is a block diagram of an electronic device according to an embodiment of the present invention.
3 is an exemplary view for explaining the configuration of a QR code according to an embodiment of the present invention.
4A to 4D are exemplary diagrams illustrating a method of displaying an augmented reality according to an exemplary embodiment of the present invention.
5A to 5D are exemplary diagrams illustrating a method of displaying an augmented reality according to another embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "module" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer refers to all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to embodiments. For example, the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and an application running on each device, but is not limited thereto.

이하에서는 도 1 내지 도 5d를 바탕으로, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings based on FIGS. 1 to 5D.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each of the steps described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.

도 1에 도시된 바와 같이, 전자 장치(100)는 QR 코드를 포함하는 제품을 촬영할 수 있다. 전자 장치(100)는 카메라(110)을 통해 획득된 배경 영상을 디스플레이(130)에 표시함과 함께 QR 코드 정보에 대응되는 오브젝트를 디스플레이(130)에 중첩하여 표시할 수 있다.1, the electronic device 100 may photograph a product including a QR code. The electronic device 100 may display a background image acquired through the camera 110 on the display 130 and display an object corresponding to the QR code information by superimposing it on the display 130.

도 2는 본 발명의 일 실시예에 따른 전자 장치의 블록도이다.2 is a block diagram of an electronic device according to an embodiment of the present invention.

본 발명에 따른 전자 장치(100)는 카메라(110), 프로세서(120), 디스플레이(130), 입력부(140), 마이크(150), 스피커(160), 메모리(170) 및 통신부(180)를 포함할 수 있다The electronic device 100 according to the present invention includes a camera 110, a processor 120, a display 130, an input unit 140, a microphone 150, a speaker 160, a memory 170, and a communication unit 180. Can contain

카메라(110)는 배경 영상을 촬영할 수 있다. 구체적으로 카메라(110)는 배경 영상에 포함된 QR 코드를 촬영하여 배경 영상과 오브젝트를 중첩하여 표시할 수 있다.The camera 110 may take a background image. Specifically, the camera 110 may photograph the QR code included in the background image and display the background image and the object by overlapping.

카메라(110)는 상술한 바와 같이 이미지를 촬영할 수 있는 구성이다. 카메라(110)는 렌즈, 셔터, 조리개, 이미지 센서, AFE(Analog Front End), TG(Timing Generator)를 포함할 수 있다. The camera 110 is a component capable of photographing an image as described above. The camera 110 may include a lens, a shutter, an aperture, an image sensor, an analog front end (AFE), and a timing generator (TG).

구체적으로, 렌즈(미도시)는, 피사체에 반사된 광이 입사하는 구성으로, 줌 렌즈 및 포커스 렌즈 중 적어도 하나의 렌즈를 포함할 수 있다. 셔터(미도시)는 빛이 이미지 촬영 장치(100)로 들어오는 시간을 조절한다. 셔터 스피드에 따라 이미지 센서의 노광된 픽셀에 축적되는 광량이 결정된다. 조리개(미도시)는 렌즈를 통과하여 이미지 촬영 장치(100) 내부로 입사되는 광의 양을 조절하는 구성이다. 이미지 센서(미도시)는 렌즈를 통과한 피사체의 상이 결상되는 구성이다. Specifically, a lens (not shown) has a configuration in which light reflected on a subject is incident, and may include at least one of a zoom lens and a focus lens. The shutter (not shown) adjusts the time when light enters the image capturing device 100. The amount of light accumulated in the exposed pixels of the image sensor is determined according to the shutter speed. The diaphragm (not shown) is a component that adjusts the amount of light incident into the image capturing apparatus 100 through the lens. An image sensor (not shown) is a configuration in which an image of a subject passing through a lens is formed.

이미지 처리부(170)는 카메라(110)에 의해 촬영된 로우 이미지 데이터를 처리하여 YCbCr 데이터로 만들 수 있다. 또한, 이미지 블랙 레벨을 결정하며, 색상별 감도비를 조정할 수 있다. 그 외에도 이미지 처리부(170)는 화이트 밸런스를 조정하고, 감마 보정, 색 보간, 색 보정, 해상도 변환을 수행할 수 있다.The image processing unit 170 may process raw image data photographed by the camera 110 to produce YCbCr data. In addition, it is possible to determine the image black level and adjust the sensitivity ratio for each color. In addition, the image processing unit 170 may adjust white balance, perform gamma correction, color interpolation, color correction, and resolution conversion.

프로세서(120)는 전자 장치(100)의 전반적인 동작을 제어한다.The processor 120 controls the overall operation of the electronic device 100.

프로세서(120)는 RAM, ROM, 메인 CPU, 제1 내지 n 인터페이스, 버스를 포함할 수 있다. 이때, RAM, ROM, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다. The processor 120 may include a RAM, a ROM, a main CPU, first to n interfaces, and a bus. In this case, RAM, ROM, main CPU, first to n interfaces, and the like may be connected to each other through a bus.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(170)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(170)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM stores an instruction set for booting the system. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory 170 to RAM according to the instruction stored in the ROM, and executes the O/S to boot the system. When booting is completed, the main CPU copies various application programs stored in the memory 170 to RAM, and executes the application programs copied to the RAM to perform various operations.

메인 CPU는 메모리(170)에 액세스하여, 메모리(170)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 메인 CPU는 메모리(170)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU accesses the memory 170 and performs booting using the O/S stored in the memory 170. In addition, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory 170.

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to nth interfaces are connected to the various components described above. One of the interfaces may be a network interface that is connected to an external device through a network.

디스플레이(130)는 다양한 형태의 디스플레이 패널로 구현될 수 있다. 예를 들어, 디스플레이 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), AM-OLED(Active-Matrix Organic Light-Emitting Diode), LcoS(Liquid Crystal on Silicon) 또는 DLP(Digital Light Processing) 등과 같은 다양한 디스플레이 기술로 구현될 수 있다. 또한, 디스플레이(130)는 플렉서블 디스플레이(flexible display)의 형태로 전자 장치(100)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다.The display 130 may be implemented with various types of display panels. For example, the display panel is LCD (Liquid Crystal Display), OLED (Organic Light Emitting Diodes), AM-OLED (Active-Matrix Organic Light-Emitting Diode), LcoS (Liquid Crystal on Silicon) or DLP (Digital Light Processing) It can be implemented with various display technologies such as. In addition, the display 130 may be coupled to at least one of a front area, a side area, and a rear area of the electronic device 100 in the form of a flexible display.

입력부(140)는 사용자 명령을 입력 받을 수 있다. 입력부(140)는 다양한 형태로 구성될 수 있다. 예를 들어 입력부(140)는 디스플레이(130) 및 터치 감지부(미도시)와 결합하여 터치 스크린으로 구현될 수 있다. 그러나 이러한 구성에 한정되는 것은 아니며, 입력부(140)는 버튼을 포함하거나, 외부 리모컨으로 구성될 수 있으며, 음성 입력을 위한 마이크(150)로 구성될 수도 있으며, 카메라(110)와 결합하여 모션 입력을 수행할 수도 있다.The input unit 140 may receive a user command. The input unit 140 may be configured in various forms. For example, the input unit 140 may be implemented as a touch screen in combination with the display 130 and a touch sensing unit (not shown). However, it is not limited to this configuration, and the input unit 140 may include a button or may be composed of an external remote control, may be composed of a microphone 150 for voice input, and motion input by combining with the camera 110 You can also do

특히, 입력부(140)는 제품 이미지를 편집하기 위한 사용자 명령을 입력받을 수 있다. 이때, 입력된 사용자 명령은 롱프레스 명령, 더블 탭 명령, 스와이프 명령 등 일 수 있다.In particular, the input unit 140 may receive a user command for editing a product image. In this case, the input user command may be a long press command, a double tap command, a swipe command, or the like.

메모리(170)는 전자 장치(100)를 구동시키기 위한 O/S(Operating System)가 저장될 수 있다. 또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 프로그램이나 어플리케이션이 저장될 수도 있다. 메모리(170)는 프로그램 또는 어플리케이션의 실행 중에 입력되거나 설정 또는 생성되는 각종 데이터 등과 같은 다양한 정보가 저장될 수 있다. The memory 170 may store an O/S (Operating System) for driving the electronic device 100. Also, the memory 170 may store various software programs or applications for operating the electronic device 100 according to various embodiments of the present disclosure. The memory 170 may store various information such as various data input, set, or generated during execution of a program or application.

또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 모듈을 포함할 수 있으며, 프로세서(120)는 메모리(170)에 저장된 각종 소프트웨어 모듈을 실행하여 본 개시의 다양한 실시 예들에 따른 전자 장치(100)의 동작을 수행할 수 있다.In addition, the memory 170 may include various software modules for operating the electronic device 100 according to various embodiments of the present disclosure, and the processor 120 executes various software modules stored in the memory 170 An operation of the electronic device 100 according to various embodiments of the present disclosure may be performed.

또한, 메모리(170)는 카메라(110)에 의해 촬영된 공간 이미지 및 외부로부터 수신한 다양한 이미지를 저장할 수 있다. 이를 위해, 메모리(150)는 플래시 메모리(Flash Memory) 등과 같은 반도체 메모리나 하드디스크(Hard Disk) 등과 같은 자기 저장 매체 등을 포함할 수 있다.In addition, the memory 170 may store spatial images captured by the camera 110 and various images received from the outside. To this end, the memory 150 may include a semiconductor memory such as a flash memory or a magnetic storage medium such as a hard disk.

통신부(180)는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부(180)는 와이파이 칩, 블루투스 칩, NFC칩, 무선 통신 칩 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.특히, 통신부(180)는 외부 장치(예를 들어, 제품 이미지를 제공하는 컨텐츠 서버 등)로부터 다양한 정보를 수신할 수 있다. 예를 들어, 통신부(180)는 외부 장치로부터 다양한 실내 이미지 및 제품 정보, 제품 이미지를 수신하고 수신된 정보를 메모리(170)에 저장할 수 있다.The communication unit 180 may communicate with an external device. In particular, the communication unit 180 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, an NFC chip, and a wireless communication chip. At this time, the WiFi chip, the Bluetooth chip, and the NFC chip perform communication using a LAN method, a WiFi method, a Bluetooth method, and an NFC method, respectively. When using a Wi-Fi chip or a Bluetooth chip, various types of connection information such as an SSID and a session key may be transmitted and received first, and then various types of information may be transmitted and received after a communication connection using them. The wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE). In particular, the communication unit 180 May receive various information from an external device (eg, a content server that provides a product image). For example, the communication unit 180 may receive various indoor images, product information, and product images from an external device, and store the received information in the memory 170.

도 3은 본 발명의 일 실시예에 따른 QR 코드의 구성을 설명하기 위한 예시도이다.3 is an exemplary view for explaining the configuration of a QR code according to an embodiment of the present invention.

하나의 QR Code는 기능 패턴(function pattern)과 인코딩 영역(encoding region)으로 구분되며, 세부적인 기능 패턴에는 finder pattern, alignment pattern, timing pattern 등으로 구성되며, 인코딩 영역에는 format information, version information, data and error correction codewords 등의 요소들로 구성될 수 있다.One QR Code is divided into a function pattern and an encoding region, and the detailed function pattern consists of a finder pattern, alignment pattern, and timing pattern, and the encoding area includes format information, version information, and data. It can be composed of elements such as and error correction codewords.

이때 기능 패턴(function pattern)들은 항상 QR Code의 같은 자리와 공간을 차지할 수 있다. 기능 패턴들로 하여금 고속 인식과 인식률 향상에 도움이 된다. At this time, function patterns can always occupy the same place and space in the QR Code. The functional patterns help high-speed recognition and improvement of recognition rate.

또한, 각 구성요소들의 상세 정보는 다음과 같다. 첫째, finder pattern은 고정적으로 세 개의 방향에 사각형이 위치할 수 있다. 둘째, 세 개의 finder pattern을 이어주는 2개 점선의 timing pattern이 존재할 수 있다. 셋째, format information은 finder pattern 주변을 둘러싸고 있는 사각형 박스일 수 있다. 넷째, 버전 정보는 버전 7 이상부터 방향 패턴 좌측과 상측에 version information이 자리하고 버전 2 이상부터는 alignment pattern이 고정된 위치에 자리할 수 있다. 하지만 QR Code의 구성요소는 버전에 따라 다소 상이하게 구성될 수 있음은 물론이다.In addition, detailed information of each component is as follows. First, the finder pattern can be fixedly positioned in three directions. Second, there may be two dotted timing patterns connecting three finder patterns. Third, the format information may be a square box surrounding the finder pattern. Fourth, as for the version information, version information may be located on the left and upper sides of the direction pattern from version 7 or higher, and may be located at a position where the alignment pattern is fixed from version 2 or higher. However, it goes without saying that the components of the QR Code can be configured somewhat differently depending on the version.

이하에서는 상술한 전자 장치(100)의 구성을 바탕으로 본 발명의 동작에 대하여 구체적으로 설명한다.Hereinafter, the operation of the present invention will be described in detail based on the configuration of the electronic device 100 described above.

먼저, 카메라(110)는, QR 코드를 포함하는 제품 영상을 획득할 수 있다. 이후, 프로세서(120)는, QR 코드 이미지를 획득할 수 있다. 이후, 프로세서(120)는, 메모리(170)로부터 기 저장된 QR 코드의 크기 정보를 획득할 수 있다. First, the camera 110 may acquire a product image including a QR code. Thereafter, the processor 120 may acquire a QR code image. Thereafter, the processor 120 may obtain size information of the previously stored QR code from the memory 170.

이후, 프로세서(120)는, 기 저장된 QR 코드의 크기 정보 및 QR 코드의 이미지 정보를 바탕으로, 디스플레이(130)에 표시되는 제품의 크기 및 시선 정보(또는 기울기 정보)를 획득할 수 있다.Thereafter, the processor 120 may acquire size and gaze information (or tilt information) of a product displayed on the display 130 based on the previously stored size information of the QR code and image information of the QR code.

이후, 프로세서(120)는, 디스플레이(130)에 표시되는 제품의 크기 및 시선 정보(또는 기울기 정보)를 바탕으로 QR 코드에 대응되는 오브젝트에 대한 정보를 획득할 수 있다.Thereafter, the processor 120 may obtain information on the object corresponding to the QR code based on the size and gaze information (or tilt information) of the product displayed on the display 130.

구체적으로, 동일한 제품을 촬영하는 경우라고 하더라도, 촬영 각도에 따라 제품이 디스플레이에 표시되는 모양이 상이할 수 있다. 예를 들어, 도 4a, 도 4b 및 도 5a, 도 5b에 도시된 바와 같이, 전자 장치(100)와 제품이 평행한 평면 상에서 촬영되는 경우와 도 4c, 도 4d 및 도 5c, 도 5d에 도시된 바와 같이, 전자 장치(100)와 제품이 평행하지 않은(즉, 비스듬한) 평면 상에서 촬영되는 경우 전자 장치(100)에 표시되는 배경 영상은 상이할 수 있다.Specifically, even if the same product is photographed, the shape of the product displayed on the display may be different depending on the photographing angle. For example, as shown in FIGS. 4A, 4B, and 5A, 5B, a case where the electronic device 100 and the product are photographed on a parallel plane and shown in FIGS. 4C, 4D, 5C, and 5D As described above, when the electronic device 100 and the product are photographed on a non-parallel (ie, oblique) plane, the background image displayed on the electronic device 100 may be different.

따라서, 전자 장치(100)는 QR 코드의 크기 정보(예를 들어, 가로 3cm, 세로 3cm의 정사각형)를 메모리(170)에 기 저장하고, 카메라(110)를 통해 촬영된 이미지 상의 QR 코드의 크기 정보를 바탕으로 후술하는 오브젝트의 크기 및 기울기를 결정할 수 있다.예를 들어, 촬영된 이미지 상의 QR 코드의 크기 정보가 가로 2cm, 세로 2cm의 정사각형인 경으, 전자 장치(100)는 오브젝트의 크기를 기 설정된 크기(즉, 3cm, 세로 3cm의 정사각형인 QR 코드에 대응되는 크기)보다 1.5배 확대할 수 있다. 또 다른 예로, 촬영된 이미지 상의 QR 코드의 크기 정보가 가로 3cm, 세로 2cm의 사각형인 경우, 전자 장치(100)는 오브젝트를 기 설정된 크기에서 3cm, 세로 3cm의 정사각형인 QR 코드에 대응되는 기울기로 변환할 수 있다.Accordingly, the electronic device 100 pre-stores the size information of the QR code (for example, a square of 3 cm in width and 3 cm in height) in the memory 170, and the size of the QR code on the image captured by the camera 110 Based on the information, the size and inclination of the object, which will be described later, can be determined. For example, the size information of the QR code on the captured image is a square 2cm in width and 2cm in height, and the electronic device 100 determines the size of the object. It can be enlarged 1.5 times larger than a preset size (that is, a size corresponding to a square QR code of 3 cm and 3 cm in height). As another example, when the size information of the QR code on the photographed image is a square 3cm in width and 2cm in height, the electronic device 100 moves the object at an inclination corresponding to the QR code 3cm in length and 3cm in height. Can be converted.

이후, 프로세서(120)는, 디스플레이(130)에 표시되는 제품의 크기 및 시선 정보(또는 기울기 정보)를 바탕으로 오브젝트가 표시될 영역을 획득할 수 있다.Thereafter, the processor 120 may acquire an area in which the object is to be displayed based on the size and gaze information (or tilt information) of the product displayed on the display 130.

즉, 전자 장치(100)는 카메라(110)를 통해 촬영된 이미지 상의 QR 코드의 크기 정보를 바탕으로 오브젝트의 크기 및 기울기를 결정할 수 있을 뿐만 아니라, 오브젝트가 표시될 영역을 결정할 수 있다.That is, the electronic device 100 may determine the size and inclination of the object based on the size information of the QR code on the image captured by the camera 110 as well as determine the area in which the object is to be displayed.

즉, 도 5b에 도시된 바와 같이, 전자 장치(100)와 QR 코드가 평행한 평면 상에 위치하는 경우의 영역은 도 5d에 도시된 바와 같이, 전자 장치(100)와 QR 코드가 평행한 평면 상에 위치하지 않는 경우의 영역보다 큰 영역일 수 있다.That is, as shown in FIG. 5B, the area when the electronic device 100 and the QR code are located on a parallel plane is a plane in which the electronic device 100 and the QR code are parallel as shown in FIG. 5D. It may be a larger area than an area not located on the image.

상술한 과정을 통해, 전자 장치(100)는 도 5a 내지 도 5d와 같이 제품이 물고기 오브젝트를 포함하는 경우, 전자 장치(100) 상에서 물 영역 안에만 물고기가 위치하도록 할 수 있다.Through the above-described process, when the product includes a fish object as shown in FIGS. 5A to 5D, the electronic device 100 may allow the fish to be located only in the water area.

이후, 디스플레이(130)는, 획득된 오브젝트를 영역에 표시할 수 있다. Thereafter, the display 130 may display the acquired object on the area.

한편, 전자 장치의 이동에 따라 QR 코드의 이미지의 크기 및 시선 정보(또는 기울기 정보)가 기 설정된 비율 이상 변경되는 경우, 프로세서(120)는, 기 저장된 QR 코드의 크기 정보 및 변경된 QR 코드의 이미지 정보를 바탕으로, 디스플레이(130)에 표시되는 변경된 제품의 크기 및 변경된 시선 정보(또는 기울기 정보)를 획득할 수 있다. On the other hand, when the size and gaze information (or tilt information) of the image of the QR code is changed by more than a preset ratio according to the movement of the electronic device, the processor 120, the size information of the previously stored QR code and the image of the changed QR code Based on the information, the size of the changed product and changed gaze information (or tilt information) displayed on the display 130 may be obtained.

이후, 프로세서(120)는, 디스플레이(130)에 표시되는 제품의 변경된 크기 및 변경된 시선 정보(또는 기울기 정보)를 바탕으로 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 오브젝트가 표시될 변경된 영역을 획득할 수 있다.Thereafter, the processor 120 acquires information on the changed object corresponding to the QR code and the changed area in which the object is to be displayed, based on the changed size and changed gaze information (or tilt information) of the product displayed on the display 130 can do.

이후, 디스플레이(130)는, 획득된 변경된 오브젝트를 변경된 영역에 표시할 수 있다.Thereafter, the display 130 may display the acquired changed object in the changed area.

즉, 전자 장치(100)가 스마트 폰으로 구현되는 경우, 일반적으로 QR 코드를 촬영하는 스마트폰은 고정된 위치에 존재하는 경우보다 자유롭게 이동하는 경우가 많을 것이다. 손떨림과 같은 경미한 이동에 대하여는, 전자 장치(100)는 오브젝트 또는 오브젝트가 표시되는 영역을 변경할 필요성이 적으나, 큰 이동의 경우에는 오브젝트 또는 오브젝트가 표시되는 영역을 변경할 필요성이 증가한다. That is, when the electronic device 100 is implemented as a smart phone, in general, a smart phone that photographs a QR code will move more freely than when it exists in a fixed location. For a slight movement such as hand shake, the electronic device 100 does not need to change an object or an area in which the object is displayed, but in case of a large movement, the need to change the object or an area in which the object is displayed increases.

따라서, 전자 장치(100)는 카메라(100)에 의해 촬영된 QR 코드가 기 설정된 비율(예를 들어 10%) 이상 변경되는 경우, 오브젝트의 크기 및 기울기, 오브젝트가 표시될 영역을 변경할 수 있다.Accordingly, when the QR code captured by the camera 100 is changed by a preset ratio (eg, 10%) or more, the electronic device 100 may change the size and slope of the object, and the area in which the object is to be displayed.

한편, 본 발명의 일 실시예에 따라, 도 4a 내지 도 4d에 도시된 바와 같이, 오브젝트가 모닥불 오브젝트인 경우, 전자 장치(100)는 디스플레이(130)의 상단 중앙 영역에, 모닥불 오브젝트의 화력 세기를 조절하기 위한 UI를 표시할 수 있다.On the other hand, according to an embodiment of the present invention, as shown in FIGS. 4A to 4D, when the object is a bonfire object, the electronic device 100 is in the upper central area of the display 130, and the fire power of the bonfire object is You can display a UI for adjusting

본 발명의 또 다른 실시예에 따라, 전자 장치(100)는 UI를 통해 모닥불 오브젝트의 화력 세기를 조절하기 위한 사용자 명령이 입력되면, 사용자 명령에 대응되게 모닥불 오브젝트를 변경하여 표시할 수 있다.According to another embodiment of the present invention, when a user command for adjusting the intensity of firepower of a bonfire object is input through the UI, the electronic device 100 may change and display the bonfire object corresponding to the user command.

한편, 도 5a 내지 도 5d에 도시된 바와 같이, 전자 장치(100)는 오브젝트가 물고기 오브젝트인 경우, 획득된 영역 내부에서 물고기 오브젝트를 이동시킬 수 있다.Meanwhile, as illustrated in FIGS. 5A to 5D, when the object is a fish object, the electronic device 100 may move the fish object within the acquired area.

이후, 물고기 오브젝트를 제어하기 위한 사용자 명령이 입력되면, 전자 장치(100)는 사용자 명령에 대응되게 물고기 오브젝트를 이동시킬 수 있다. Thereafter, when a user command for controlling the fish object is input, the electronic device 100 may move the fish object corresponding to the user command.

한편, 카메라(110)는, 기 설정된 주기마다 QR 코드에 대한 정보(즉, 표시될 오브젝트의 종류 및 오브젝트가 표시될 영역 정보)를 업데이트 할 수 있다. Meanwhile, the camera 110 may update information on the QR code (ie, the type of the object to be displayed and the area information in which the object is to be displayed) every preset period.

즉, 기 설정된 주기마다 QR 코드에 대한 정보가 업데이트 되지 않는다면, QR 코드가 디스플레이(130) 상에서 사라진 경우에도 전자 장치(100)는 오브젝트를 계속하여 표시하게 된다. That is, if the information on the QR code is not updated every preset period, the electronic device 100 continues to display the object even if the QR code disappears on the display 130.

따라서, 전자 장치(100)는 기 설정된 주기마다 QR 코드가 카메라(110)에 의해 촬영되는지를 판단하고, QR 코드가 카메라(110)에 의해 촬영되지 않는 경우, 오브젝트 표시를 중단할 수 있다.Accordingly, the electronic device 100 may determine whether the QR code is photographed by the camera 110 every preset period, and if the QR code is not photographed by the camera 110, the object display may be stopped.

이후, 카메라(110)는, 기 설정된 주기마다 QR 코드 이미지를 업데이트 할 수 있다.Thereafter, the camera 110 may update the QR code image every preset period.

구체적으로, QR 코드가 카메라(110)에 의해 촬영되는 경우라도, 전자 장치(100)의 위치가 변경되어 오브젝트의 크기 및 기울기, 오브젝트가 표시될 영역이 변경될 필요성이 존재한다. 따라서, 전자 장치(100)는 QR 코드의 정보 뿐만 아니라, (크기 정보를 포함하는)QR 코드 이미지를 함께 업데이트 할 수 있다.Specifically, even when the QR code is photographed by the camera 110, there is a need to change the size and inclination of the object, and the area in which the object is to be displayed, as the position of the electronic device 100 is changed. Accordingly, the electronic device 100 may update the QR code image (including size information) as well as the QR code information.

한편, QR 코드에 대한 정보를 업데이트 하는 단계는, 카메라(110)와 QR 코드 사이에 장애물이 존재하여, QR 코드의 일부만 촬영되는 경우, 촬영된 QR 코드의 일부를 바탕으로 QR 코드의 이미지 형상을 복원할 수 있다.On the other hand, in the step of updating the information on the QR code, when there is an obstacle between the camera 110 and the QR code, and only part of the QR code is photographed, the image shape of the QR code is determined based on a part of the photographed QR code. Can be restored.

구체적으로, 최초 오브젝트를 표시하는 경우, 전자 장치(100) QR 코드의 정보를 완벽하게 수신하여야 하지만, 오브젝트가 표시된 이후에는, 전자 장치(100)는 QR 코드를 촬영하고 있는지 여부만이 중요하다. 이때, 카메라(110)와 QR 코드 사이에 장애물이 존재하여 QR 코드 일부가 장애물에 의해 디스플레이(130) 상에서 사라지는 경우가 존재할 수 있다.Specifically, when displaying an object for the first time, information of the QR code of the electronic device 100 must be completely received, but after the object is displayed, only whether the electronic device 100 is photographing the QR code is important. In this case, there may be a case where an obstacle exists between the camera 110 and the QR code, so that part of the QR code disappears from the display 130 due to the obstacle.

그러나, QR 코드 일부가 장애물에 의해 디스플레이(130) 상에서 사라지는 경우라도, 전자 장치(100)가 오브젝트를 계속하여 표시하는 것이 원활한 증강 현실을 구축하기 위한 하나의 대안이 될 수 있다.However, even if part of the QR code disappears on the display 130 due to an obstacle, the electronic device 100 continuously displays the object may be an alternative for constructing a smooth augmented reality.

따라서, 전자 장치(100)는 QR 코드 일부가 장애물에 의해 디스플레이(130) 상에서 사라지는 경우라도, 디스플레이(130)에 의해 획득된 QR 코드의 일부 영역을 바탕으로 QR 코드의 이미지 형상을 획득할 수 있다. 즉, 이 경우 전자 장치(100)가 획득하는 QR 코드의 이미지 형상은 QR 코드를 디코딩하여 얻는 정보가 아닌, QR 코드의 크기 및 기울기 정보일 수 있다.Accordingly, even when a part of the QR code disappears from the display 130 due to an obstacle, the electronic device 100 may acquire the image shape of the QR code based on a partial area of the QR code obtained by the display 130. . That is, in this case, the image shape of the QR code acquired by the electronic device 100 may be information about the size and inclination of the QR code, not information obtained by decoding the QR code.

이후, 복원된 QR 코드의 이미지 형상을 바탕으로 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 오브젝트가 표시될 변경된 영역을 획득할 수 있다.Thereafter, based on the image shape of the restored QR code, information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed may be obtained.

한편, 본 발명의 다양한 실시예에 따라, 도 5a 내지 도 5d에 도시된 물고기 오브젝트는 사용자 명령에 따라 위치를 이동할 수 있다. 이때, 사용자 명령은 음성 명령일 수 있으나, 이에 한정되는 것은 아니다.Meanwhile, according to various embodiments of the present disclosure, the fish object illustrated in FIGS. 5A to 5D may be moved according to a user command. In this case, the user command may be a voice command, but is not limited thereto.

예를 들어, 사용자 명령은 디스플레이(130) 상에 표시된 물고기를 드래그 하여 이동시키는 명령일 수 있다. 또는, 사용자 명령은 호버링 명령, 더블탭 입력 등일 수 있음은 물론이다.For example, the user command may be a command for dragging and moving a fish displayed on the display 130. Alternatively, it goes without saying that the user command may be a hover command, a double tap input, or the like.

이하에서는 음성 명령을 바탕으로 물고기 오브젝트를 이동시키는 과정에 대해 설명한다. Hereinafter, a process of moving a fish object based on a voice command will be described.

전자 장치(100)는 사용자로부터 음성 신호를 입력 받아 음성 인식 데이터를 생성할 수 있다. 일 실시예로, 프로세서(120)는 디스플레이(130) 상에 사용자로부터 음성 명령 입력 버튼을 표시하고, 사용자로부터 음성 명령 입력 버튼을 통한 명령이 입력되면, 음성 명령을 입력받도록 마이크(150)를 활성화시킬 수 있다.The electronic device 100 may receive a voice signal from a user and generate voice recognition data. In one embodiment, the processor 120 displays a voice command input button from the user on the display 130, and activates the microphone 150 to receive a voice command when a command through the voice command input button is input from the user. I can make it.

여기서, 음성 인식 데이터는 프로세서(120)에 의해 음성 신호를 전처리하고, 전처리된 음성 신호로부터 음성 특징을 추출하며, 추출된 음성 특징을 음성 모델과 비교하고, 비교 결과에 기초하여 생성되는 데이터일 수 있다. 예를 들어, 음성 인식 데이터는 음성 명령에 대응되는 텍스트일 수 있다.Here, the speech recognition data may be data generated based on a result of preprocessing a speech signal by the processor 120, extracting a speech characteristic from the preprocessed speech signal, comparing the extracted speech characteristic with a speech model, and the comparison result. have. For example, the voice recognition data may be text corresponding to a voice command.

이때, 프로세서(120)가 음성 명령에 대응되는 음성 인식 데이터를 생성하는데 사용하는 음성 인식 방법의 종류는 음성 인식 데이터를 생성하는 한 제한되지 않음은 물론이다.In this case, the type of speech recognition method used by the processor 120 to generate speech recognition data corresponding to a speech command is not limited as long as the speech recognition data is generated.

일 실시예로, 프로세서(120)는 인식된 음성 인식 데이터를 나타내는 음성 인식 데이터 이미지를 표시하도록 디스플레이(130)를 제어할 수 있다.In an embodiment, the processor 120 may control the display 130 to display a speech recognition data image representing the recognized speech recognition data.

또 다른 실시예로, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되는지 여부를 사용자로부터 입력받을 수 있는 확인 입력 영역을 표시하도록 디스플레이(130)를 제어할 수 있다.In another embodiment, the processor 120 may control the display 130 to display a confirmation input area through which a user can input whether or not the recognized voice recognition data corresponds to a voice command.

프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응됨을 나타내는 확인 입력이 입력되면 이동동 제어 블록을 생성하는 과정을 수행할 수 있다. 반대로, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되지 않음을 나타내는 비확인 입력이 입력되면 음성 명령을 재입력받는 과정을 수행할 수 있다.The processor 120 may perform a process of generating a movement control block when a confirmation input indicating that the recognized speech recognition data corresponds to a speech command is input. Conversely, the processor 120 may perform a process of re-inputting the voice command when an unconfirmed input indicating that the recognized voice recognition data does not correspond to the voice command is input.

이후, 프로세서(120)는 음성 인식 데이터에 기초하여 물고기 오브젝트의 이동을 제어하는 이동 제어 블록 및 이동 제어 블록에 대응되는 명령문을 생성하고, 이동 제어 블록에 대응하여 물고기 오브젝트의 이동을 제어할 수 있다. Thereafter, the processor 120 may generate a movement control block for controlling the movement of the fish object and a statement corresponding to the movement control block based on the speech recognition data, and control the movement of the fish object in response to the movement control block. .

이후, 프로세서(120)는 이동 제어 블록을 나타내는 명령블록 이미지를 생성하고, 명령블록 이미지를 표시하기 위해 디스플레이(130)를 제어할 수 있다.Thereafter, the processor 120 may generate a command block image representing the movement control block and control the display 130 to display the command block image.

이때, 이동 제어 블록은 설정된 프로그래밍 언어 종류에 대응되는 이동 종류 제어 명령문, 이동 속도 제어 명령문 및 이동 반복수 제어 명령문 중 하나 이상을 포함할 수 있다.In this case, the movement control block may include at least one of a movement type control command, a movement speed control command, and a movement repetition number control command corresponding to the set programming language type.

또한, 이동 종류 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 이동 종류 제어 명령어와 이동 종류 제어 변수를 포함하고, 이동 속도 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 이동 속도 제어 명령어와 이동 속도 제어 변수를 포함하고, 이동 반복수 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 이동 반복수 제어 명령어와 이동 반복수 제어 변수를 포함할 수 있다.In addition, the movement type control statement includes a movement type control command and movement type control variable corresponding to the set programming language type, and the movement speed control statement includes a movement speed control command and movement speed control variable corresponding to the set programming language type. And, the movement repetition number control command may include a movement repetition number control command and a movement repetition number control variable corresponding to a set programming language type.

프로세서(120)는 음성 인식 데이터에서 이동 종류 정보를 검색하고, 이동 종류 정보가 검색되면 검색된 이동 종류 정보에 대응하는 이동 종류 제어 명령문을 생성할 수 있다.The processor 120 may search for movement type information from the voice recognition data and, when the movement type information is searched, may generate a movement type control command corresponding to the searched movement type information.

예를 들어, 음성 인식 데이터가 "오른쪽으로 빠르게 움직여"인 경우, 이동 종류 정보는 "오른쪽", 이동 종류 정보에 대응하는 이동 종류 제어 명령문은 "#move right"일 수 있다. 이를 위해, 이동 종류 정보에 해당하는 텍스트가 프로그래밍 언어 종류별 이동 종류 제어 명령문에 매칭되어 메모리(170)에 저장될 수 있다.For example, when the voice recognition data is "move to the right quickly", the movement type information may be "right", and the movement type control command corresponding to the movement type information may be "#move right". To this end, the text corresponding to the movement type information may be matched with a movement type control statement for each programming language type and stored in the memory 170.

한편, 이동 제어 블록이 이동 속도 제어 명령문을 포함하는 경우, 프로세서(120)는, 음성 인식 데이터에 이동 속도 정보가 포함된 경우, 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다.Meanwhile, when the movement control block includes a movement speed control command, the processor 120 may generate a movement speed control command corresponding to the movement speed information when the movement speed information is included in the speech recognition data.

반면에, 음성 인식 데이터에 이동 속도 정보가 포함되지 않은 경우, 프로세서(120)는, 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 음절 간격 정보에 대응하여 이동 속도 정보를 생성하고, 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다. On the other hand, when the movement speed information is not included in the speech recognition data, the processor 120 generates syllable interval information based on the speech recognition data, generates movement speed information corresponding to the syllable interval information, and generates A movement speed control statement corresponding to movement speed information can be generated.

구체적으로, 프로세서(120)는 음성 인식 데이터에서 이동 속도 정보를 검색하고, 이동 속도 정보가 검색되면 검색된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다. 예를 들어, 음성 인식 데이터가 "오른쪽으로 빠르게 움직여"인 경우, 이동 속도 정보는 "빠르게", 이동 속도 정보에 대응하는 이동 종류 제어 명령문은 "#speed up"일 수 있다.Specifically, the processor 120 may search for movement speed information from speech recognition data, and when the movement speed information is searched, may generate a movement speed control statement corresponding to the searched movement speed information. For example, when the voice recognition data is "move to the right quickly", the movement speed information may be "fast", and the movement type control command corresponding to the movement speed information may be "#speed up".

이를 위해, 이동 속도 정보에 해당하는 텍스트가 프로그래밍 언어 종류별 이동 속도 제어 명령문)에 매칭되어 메모리(170)에 저장될 수 있다.To this end, a text corresponding to the movement speed information may be matched with a movement speed control statement for each programming language type and stored in the memory 170.

반대로, 프로세서(120)는 음성 인식 데이터에서 이동 속도 정보가 검색되지 않으면, 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 음절 간격 정보에 대응하여 이동 속도 정보를 생성하고, 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다.Conversely, if the movement speed information is not retrieved from the speech recognition data, the processor 120 generates syllable interval information based on the speech recognition data, generates movement speed information corresponding to the syllable interval information, and generates movement speed information. You can create a movement speed control statement corresponding to.

구체적으로, 프로세서(120)는 음성 인식 데이터에 포함된 음절 중에서 어느 하나의 음절의 종료 시점과 어느 하나의 음절의 다음 음절의 시작 시점 간에 제1 시간차를 산출하고, 복수의 제1 시간차의 평균 시간차를 음절 간격 정보로 생성할 수 있다.Specifically, the processor 120 calculates a first time difference between the end time of one syllable and the start time of the next syllable among the syllables included in the speech recognition data, and the average time difference between the plurality of first time differences Can be generated as syllable spacing information.

이후, 프로세서(120)는 기준 시간차 대비 음절 간격 정보가 나타내는 평균 시간차의 시간차 비율을 산출하고, 기본 이동 속도에 시간차 비율을 적용하여 이동 속도 정보로 생성할 수 있다.Thereafter, the processor 120 may calculate a time difference ratio of the average time difference indicated by the syllable interval information relative to the reference time difference, and apply the time difference ratio to the basic movement speed to generate movement speed information.

예를 들어, 프로세서(120)는 평균 시간차가 "12msec"이고, 기준 시간차가 "10msec"이며, 기본 이동 속도가 "1배속"인 경우, 시간차 비율을 "120%"로 산출하고, 기본 이동 속도 "1배속"에 시간차 비율 "120%"를 적용하여 이동 속도 정보를 "1.2배속"으로 생성할 수 있다.For example, when the average time difference is "12msec", the reference time difference is "10msec", and the basic movement speed is "1x", the processor 120 calculates the time difference ratio as "120%", and the basic movement speed By applying a time difference ratio of "120%" to "1x speed", movement speed information can be generated as "1.2x speed".

한편, 이동 제어 블록이 이동 반복수 제어 명령문을 포함하는 경우, 프로세서(120)는, 음성 인식 데이터에 이동 반복수 정보가 포함된 경우, 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다.Meanwhile, when the movement control block includes the movement repetition number control statement, the processor 120 generates a movement repetition number control statement corresponding to the movement repetition number information when the movement repetition number information is included in the speech recognition data. I can.

반면에, 음성 인식 데이터에 이동 반복수 정보가 포함되지 않은 경우, 프로세서(120)는 음성 신호에 기초하여 신호 세기 정보를 생성하고, 신호 세기 정보에 대응하여 이동 반복수 정보를 생성하고, 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다.On the other hand, when the movement repetition number information is not included in the speech recognition data, the processor 120 generates signal strength information based on the speech signal, generates movement repetition number information corresponding to the signal strength information, and generates A movement repetition number control statement corresponding to the movement repetition number information can be generated.

구체적으로, 한편, 프로세서(120)는 음성 인식 데이터에서 이동 반복수 정보를 검색하고, 이동 반복수 정보가 검색되면 검색된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다. 예를 들어, 음성 인식 데이터가 "호수를 두번 왕복해"인 경우, 이동 반복수 정보는 "두번", 이동 반복수 정보에 대응하는 이동 종류 제어 명령문은 "#two"일 수 있다.Specifically, on the other hand, the processor 120 may search for movement repetition number information from the speech recognition data, and when the movement repetition number information is searched, may generate a movement repetition number control statement corresponding to the searched movement repetition number information. For example, when the voice recognition data is "Twice the number of times," the movement repetition number information may be "twice," and the movement type control command corresponding to the movement repetition number information may be "#two".

이를 위해, 이동 반복수 정보에 해당하는 텍스트가 프로그래밍 언어 종류별 이동 반복수 제어 명령문에 매칭되어 메모리(170)에 저장될 수 있다.To this end, a text corresponding to the movement repetition number information may be matched with a movement repetition number control statement for each programming language type and stored in the memory 170.

반대로, 프로세서(120)는 음성 인식 데이터에서 이동 반복수 정보 검색되지 않으면, 음성 신호에 기초하여 신호 세기 정보를 생성하고, 신호 세기 정보에 대응하여 이동 반복수 정보를 생성하고, 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다.Conversely, if the movement repetition number information is not retrieved from the speech recognition data, the processor 120 generates signal strength information based on the voice signal, generates movement repetition number information in response to the signal strength information, and generates the movement repetition number. It is possible to generate a movement repetition control statement corresponding to the information.

구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 신호 세기 중에서 최대 신호 세기를 신호 세기 정보로 생성할 수 있다.Specifically, the processor 120 may generate the maximum signal strength as signal strength information among signal strengths of the voice signal over time.

이후, 프로세서(120)는 기준 신호 세기 대비 신호 세기 정보가 나타내는 최대 신호 세기의 신호 세기 비율을 산출하고, 기본 이동 반복수에 신호 세기 비율을 적용하여 이동 반복수 정보로 생성할 수 있다.Thereafter, the processor 120 may calculate a signal intensity ratio of the maximum signal intensity indicated by the signal intensity information to the reference signal intensity, and apply the signal intensity ratio to the basic movement repetition number to generate the movement repetition number information.

예를 들어, 프로세서(120)는 최대 신호 세기가 "200DB"이고, 기준 신호 세기가 "100DB"이며, 기본 이동 반복수가 "1회"인 경우, 신호 세기 비율을 "200%"로 산출하고, 기본 이동 반복수 "1회"에 신호 세기 비율 "200%"를 적용하여 이동 반복수 정보를 "2회"로 생성할 수 있다. 이때, 이동 반복수 정보는 반올림되어 자연수로 생성될 수 있다.For example, when the maximum signal strength is "200DB", the reference signal strength is "100DB", and the number of basic movement repetitions is "one time", the processor 120 calculates the signal strength ratio as "200%", By applying the signal strength ratio "200%" to the basic number of movement repetitions "once", information on the number of movement repetitions may be generated as "2 times". At this time, the movement repetition number information may be rounded up and generated as a natural number.

한편, 프로세서(120)는 음성 신호에 기초하여 사용자의 사용자 특성 정보를 생성하고, 사용자 특성 정보에 대응하여 이동 제어 블록의 프로그래밍 언어 종류를 설정할 수 있다.Meanwhile, the processor 120 may generate user characteristic information of a user based on the voice signal, and set a programming language type of the movement control block in response to the user characteristic information.

여기서, 사용자 특성 정보는 사용자 성별 정보 및 사용자 연령 정보를 포함할 수 있다.Here, the user characteristic information may include user gender information and user age information.

구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 주파수로부터 평균 주파수를 산출하고, 음성 주파수 별로 사용자 연령 정보가 매핑된 주파수-사용자 특성 테이블로부터 평균 주파수에 대응되는 사용자의 사용자 연령 정보를 독출할 수 있다.Specifically, the processor 120 calculates the average frequency from the frequency of the voice signal over time, and reads the user age information of the user corresponding to the average frequency from the frequency-user characteristic table in which user age information is mapped for each voice frequency. I can.

한편, 본 발명의 다양한 실시예에 따라, 이동 제어 블록은 다양한 명령문을 포함할 수 있음은 물론이다. 일 실시예로, 프로세서(120)는 입력된 음성의 주파수에 따라 특정 동작을 수행하도록 오브젝트를 제어할 수 있다. 예를 들어 입력된 음성의 주파수가 기 설정된 범위(예를 들어 60헤르츠 내지 80헤르츠)를 벗어나는 경우, 프로세서(120)는 물고기 오브젝트가 물밖으로 뛰쳐나오는 동작을 수행하도록 오브젝트를 제어할 수 있다. 구체적으로, 입력된 주파수가 60헤르츠 미만인 경우, 프로세서(120)는 디스플레이(130)에 표시된 복수의 물고기 오브젝트 중 기 설정된 크기 이상의 물고기 오브젝트가 물밖으로 뛰쳐나오는 동작을 수행하도록 오브젝트를 제어할 수 있다. 또는 입력된 주파수가 80헤르츠 초과인 경우, 프로세서(120)는 디스플레이(130)에 표시된 복수의 물고기 오브젝트 중 기 설정된 크기 이하의 물고기 오브젝트가 물밖으로 뛰쳐나오는 동작을 수행하도록 오브젝트를 제어할 수 있다.On the other hand, according to various embodiments of the present invention, it goes without saying that the movement control block may include various commands. In an embodiment, the processor 120 may control the object to perform a specific operation according to the frequency of the input voice. For example, when the frequency of the input voice is out of a preset range (for example, 60 Hz to 80 Hz), the processor 120 may control the object so that the fish object jumps out of the water. Specifically, when the input frequency is less than 60 Hertz, the processor 120 may control the object to perform an operation in which a fish object having a predetermined size or larger among the plurality of fish objects displayed on the display 130 jumps out of the water. Alternatively, when the input frequency exceeds 80 hertz, the processor 120 may control the object so that a fish object having a predetermined size or less among the plurality of fish objects displayed on the display 130 jumps out of the water.

또 다른 실시예로, 프로세서(120)는 입력된 음성의 주파수가 높을수록 물고기 오브젝트가 높게 뛰쳐오르는 동작을 수행할 수 있음은 물론이다.In another embodiment, it goes without saying that the processor 120 may perform an operation in which the fish object jumps higher as the frequency of the input voice increases.

한편, 본 발명의 또 다른 실시예에 따라, 전자 장치(100)는 디스플레이(130)에 표시된 배경 영상의 초점 거리에 따라, 오브젝트를 다르게 표시할 수 있다. 예를 들어, 디스플레이(130)에 표시된 제품에 카메라(110)의 초점이 맞춰진 경우, 프로세서(120)는 오브젝트를 선명하게 표시하고, 디스플레이(130)에 표시된 제품이 아닌 다른 영역에 카메라(110)의 초점이 맞춰진 경우, 프로세서(120)는 오브젝트를 흐릿하게 표시할 수 있다.Meanwhile, according to another embodiment of the present invention, the electronic device 100 may display an object differently according to the focal length of the background image displayed on the display 130. For example, when the focus of the camera 110 is focused on the product displayed on the display 130, the processor 120 clearly displays the object, and the camera 110 is placed in an area other than the product displayed on the display 130. When the focus of is focused, the processor 120 may blur the object.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in combination with a computer that is hardware. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming elements, including C, C++ , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

100 : 전자 장치100: electronic device

Claims (10)

카메라, 메모리, 디스플레이 및 프로세서를 포함하는 전자 장치의 제어 방법에 있어서,
상기 카메라가, QR 코드를 포함하는 제품 영상을 획득하는 단계;
상기 프로세서가, 상기 QR 코드 이미지를 획득하는 단계;
상기 프로세서가, 상기 메모리로부터 기 저장된 QR 코드의 크기 정보를 획득하는 단계;
상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 QR 코드의 이미지 정보를 바탕으로, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 획득하는 단계;
상기 프로세서가, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 바탕으로 상기 QR 코드에 대응되는 오브젝트에 대한 정보를 획득하는 단계;
상기 프로세서가, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 바탕으로 상기 오브젝트가 표시될 영역을 획득하는 단계; 및
상기 디스플레이가, 상기 획득된 오브젝트를 상기 영역에 표시하는 단계; 를 포함하고,
상기 오브젝트가 물고기 오브젝트인 경우,
상기 표시하는 단계는,
상기 획득된 영역 내부에서 상기 물고기 오브젝트를 이동시키는 단계; 및
상기 물고기 오브젝트를 제어하기 위한 사용자 명령이 입력되면, 상기 사용자 명령에 대응되게 상기 물고기 오브젝트를 이동시키는 단계; 를 포함하고,
상기 물고기 오브젝트를 이동시키는 단계는,
상기 전자 장치의 사용자로부터 음성 신호를 입력 받아 음성 인식 데이터를 생성하는 단계;
상기 음성 인식 데이터에 기초하여 상기 물고기 오브젝트의 이동을 제어하는 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계;
상기 이동 제어 블록에 대응하여 상기 물고기 오브젝트의 이동을 제어하는 단계;
상기 이동 제어 블록을 나타내는 명령블록 이미지를 생성하는 단계; 및
상기 명령블록 이미지를 표시하는 단계; 를 포함하는 제어 방법.
In the control method of an electronic device including a camera, a memory, a display and a processor,
Obtaining, by the camera, a product image including a QR code;
Obtaining, by the processor, the QR code image;
Obtaining, by the processor, size information of a previously stored QR code from the memory;
Obtaining, by the processor, size information and gaze information of a product displayed on the display based on size information of the previously stored QR code and image information of the QR code;
Obtaining, by the processor, information on an object corresponding to the QR code based on the size and gaze information of the product displayed on the display;
Obtaining, by the processor, an area in which the object is to be displayed based on the size and gaze information of the product displayed on the display; And
Displaying, by the display, the acquired object in the area; Including,
If the object is a fish object,
The displaying step,
Moving the fish object within the acquired area; And
When a user command for controlling the fish object is input, moving the fish object to correspond to the user command; Including,
The step of moving the fish object,
Generating voice recognition data by receiving a voice signal from a user of the electronic device;
Generating a movement control block for controlling movement of the fish object and a statement corresponding to the movement control block based on the speech recognition data;
Controlling the movement of the fish object in response to the movement control block;
Generating a command block image representing the movement control block; And
Displaying the command block image; Control method comprising a.
제1항에 있어서,
상기 제어 방법은,
상기 전자 장치의 이동에 따라 상기 QR 코드의 이미지의 크기 및 시선 정보가 기 설정된 비율 이상 변경되는 경우, 상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 변경된 QR 코드의 이미지 정보를 바탕으로, 상기 디스플레이에 표시되는 변경된 제품의 크기 및 변경된 시선 정보를 획득하는 단계;
상기 프로세서가, 상기 디스플레이에 표시되는 제품의 변경된 크기 및 변경된 시선 정보를 바탕으로 상기 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 상기 오브젝트가 표시될 변경된 영역을 획득하는 단계; 및
상기 디스플레이가, 상기 획득된 변경된 오브젝트를 상기 변경된 영역에 표시하는 단계; 를 포함하는 제어 방법.
The method of claim 1,
The control method,
When the size and gaze information of the image of the QR code is changed by more than a preset ratio according to the movement of the electronic device, the processor, based on the size information of the previously stored QR code and image information of the changed QR code, Acquiring the size of the changed product and changed gaze information displayed on the display;
Obtaining, by the processor, information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed, based on the changed size and changed gaze information of the product displayed on the display; And
Displaying, by the display, the acquired changed object in the changed area; Control method comprising a.
제1항에 있어서,
상기 오브젝트가 모닥불 오브젝트인 경우,
상기 제어 방법은,
상기 디스플레이의 상단 중앙 영역에, 상기 모닥불 오브젝트의 화력 세기를 조절하기 위한 UI를 표시하는 단계;
상기 UI를 통해 상기 모닥불 오브젝트의 화력 세기를 조절하기 위한 사용자 명령이 입력되면, 상기 사용자 명령에 대응되게 상기 모닥불 오브젝트를 변경하여 표시하는 단계;를 포함하는 제어 방법.
The method of claim 1,
If the object is a bonfire object,
The control method,
Displaying a UI for adjusting the intensity of heat of the bonfire object in the upper center area of the display;
When a user command for adjusting the intensity of the firepower of the bonfire object is input through the UI, changing and displaying the bonfire object corresponding to the user command.
삭제delete 제2항에 있어서,
상기 제어 방법은,
상기 카메라가, 기 설정된 주기마다 상기 QR 코드에 대한 정보를 업데이트 하는 단계; 및
상기 카메라가, 기 설정된 주기마다 상기 QR 코드 이미지를 업데이트 하는 단계;를 포함하고,
상기 QR 코드에 대한 정보를 업데이트 하는 단계는,
상기 카메라와 상기 QR 코드 사이에 장애물이 존재하여, 상기 QR 코드의 일부만 촬영되는 경우, 촬영된 상기 QR 코드의 일부를 바탕으로 QR 코드의 이미지 형상을 복원하는 단계; 및
상기 복원된 QR 코드의 이미지 형상을 바탕으로 상기 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 상기 오브젝트가 표시될 변경된 영역을 획득하는 단계;를 포함하는 제어 방법.
The method of claim 2,
The control method,
Updating, by the camera, information on the QR code every preset period; And
Including, the camera, updating the QR code image every preset period,
Updating the information on the QR code,
When an obstacle exists between the camera and the QR code and only a part of the QR code is photographed, restoring an image shape of the QR code based on a part of the QR code; And
And acquiring information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed based on the image shape of the restored QR code.
삭제delete 제1항에 있어서,
상기 이동 제어 블록이 이동 속도 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는,
상기 음성 인식 데이터에 이동 속도 정보가 포함된 경우, 상기 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 및
상기 음성 인식 데이터에 이동 속도 정보가 포함되지 않은 경우 경우, 상기 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 상기 음절 간격 정보에 대응하여 상기 이동 속도 정보를 생성하고, 상기 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 를 포함하는 제어 방법.
The method of claim 1,
When the movement control block includes a movement speed control command, generating a command corresponding to the movement control block and the movement control block,
Generating a movement speed control statement corresponding to the movement speed information when movement speed information is included in the speech recognition data; And
When movement speed information is not included in the speech recognition data, syllable spacing information is generated based on the speech recognition data, and the movement speed information is generated in response to the syllable spacing information, and the generated movement speed information Generating a movement speed control statement corresponding to a; Control method comprising a.
제1항에 있어서,
상기 이동 제어 블록이 이동 반복수 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는,
상기 음성 인식 데이터에 이동 반복수 정보가 포함된 경우, 상기 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계; 및
상기 음성 인식 데이터에 이동 반복수 정보가 포함되지 않은 경우, 상기 음성 신호에 기초하여 신호 세기 정보를 생성하고, 상기 신호 세기 정보에 대응하여 상기 이동 반복수 정보를 생성하고, 상기 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계;를 포함하는 제어 방법.
The method of claim 1,
When the movement control block includes a movement repetition number control statement, generating a command corresponding to the movement control block and the movement control block,
Generating a movement repetition number control statement corresponding to the movement repetition number information when the movement repetition number information is included in the speech recognition data; And
When the speech recognition data does not include movement repetition number information, signal strength information is generated based on the voice signal, and the movement repetition number information is generated in response to the signal strength information, and the generated movement repetition number The control method comprising; generating a movement repetition number control statement corresponding to the information.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.
A memory for storing one or more instructions; And
And a processor that executes the one or more instructions stored in the memory,
The processor executes the one or more instructions,
An apparatus for performing the method of claim 1.
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
A computer program combined with a computer as hardware and stored in a recording medium readable by a computer to perform the method of claim 1.
KR1020200062129A 2020-05-25 2020-05-25 Control method, device and program of electronic device for augmented reality display KR102214338B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200062129A KR102214338B1 (en) 2020-05-25 2020-05-25 Control method, device and program of electronic device for augmented reality display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200062129A KR102214338B1 (en) 2020-05-25 2020-05-25 Control method, device and program of electronic device for augmented reality display

Publications (1)

Publication Number Publication Date
KR102214338B1 true KR102214338B1 (en) 2021-02-10

Family

ID=74560873

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200062129A KR102214338B1 (en) 2020-05-25 2020-05-25 Control method, device and program of electronic device for augmented reality display

Country Status (1)

Country Link
KR (1) KR102214338B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102348584B1 (en) * 2020-10-20 2022-01-07 한림대학교 산학협력단 Smart trash bin control method, device and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130047148A (en) * 2011-10-31 2013-05-08 에스케이씨앤씨 주식회사 Method and system for providing content in augmented reality
KR20130139148A (en) * 2012-06-12 2013-12-20 김성은 Sports article storing information, hall of fame system using thereof and method for providing hall of fame service
KR101397873B1 (en) 2011-11-04 2014-07-01 인하대학교 산학협력단 Apparatus and method for providing contents matching related information
KR20190035373A (en) * 2017-09-26 2019-04-03 에이케이엔코리아 주식회사 Virtual movile device implementing system and control method for the same in mixed reality
KR20200031666A (en) * 2017-08-31 2020-03-24 애플 인크. Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130047148A (en) * 2011-10-31 2013-05-08 에스케이씨앤씨 주식회사 Method and system for providing content in augmented reality
KR101397873B1 (en) 2011-11-04 2014-07-01 인하대학교 산학협력단 Apparatus and method for providing contents matching related information
KR20130139148A (en) * 2012-06-12 2013-12-20 김성은 Sports article storing information, hall of fame system using thereof and method for providing hall of fame service
KR20200031666A (en) * 2017-08-31 2020-03-24 애플 인크. Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
KR20190035373A (en) * 2017-09-26 2019-04-03 에이케이엔코리아 주식회사 Virtual movile device implementing system and control method for the same in mixed reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102348584B1 (en) * 2020-10-20 2022-01-07 한림대학교 산학협력단 Smart trash bin control method, device and program

Similar Documents

Publication Publication Date Title
CN107105130B (en) Electronic device and operation method thereof
US10628670B2 (en) User terminal apparatus and iris recognition method thereof
KR102381713B1 (en) Photographic method, photographic apparatus, and mobile terminal
US20170142379A1 (en) Image projection system, projector, and control method for image projection system
US9420169B2 (en) Imaging device, imaging method, and program
US9952667B2 (en) Apparatus and method for calibration of gaze detection
KR20160135242A (en) Remote device control via gaze detection
US20220124240A1 (en) Target tracking method and system, readable storage medium, and mobile platform
EP3671408A1 (en) Virtual reality device and content adjusting method therefor
US20210304658A1 (en) Screen display method and apparatus, and method and apparatus for generating grayscale mapping information
KR102214338B1 (en) Control method, device and program of electronic device for augmented reality display
US20180357036A1 (en) Display system, display device, and method of controlling display system
CN112241199B (en) Interaction method and device in virtual reality scene
JP6270578B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
KR20220111821A (en) Control method of electronic device based on augmented reality display
US10491833B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable recording medium
CN109804408B (en) Consistent spherical photo and video orientation correction
CN115623313A (en) Image processing method, image processing apparatus, electronic device, and storage medium
JP6529571B1 (en) Program, method executed by computer to provide virtual space, and information processing apparatus for executing program
KR20210059612A (en) Asymmetric normalized correlation layer for deep neural network feature matching
US9860480B2 (en) Method for processing information and electronic device
KR102415774B1 (en) Control method of server for performing selective arrangement of multiple images
WO2022062554A1 (en) Multi-lens video recording method and related device
KR102454833B1 (en) Display device displaying image of virtual aquarium, and control method for user terminal communicating to display device
KR102510050B1 (en) Control method of electronic device to acquire command for either going straight or back based on joint tracking

Legal Events

Date Code Title Description
GRNT Written decision to grant