KR102214338B1 - Control method, device and program of electronic device for augmented reality display - Google Patents
Control method, device and program of electronic device for augmented reality display Download PDFInfo
- Publication number
- KR102214338B1 KR102214338B1 KR1020200062129A KR20200062129A KR102214338B1 KR 102214338 B1 KR102214338 B1 KR 102214338B1 KR 1020200062129 A KR1020200062129 A KR 1020200062129A KR 20200062129 A KR20200062129 A KR 20200062129A KR 102214338 B1 KR102214338 B1 KR 102214338B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- code
- movement
- display
- processor
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
- G06K19/06037—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
Abstract
Description
본 발명은 증강현실 표시를 위한 전자 장치의 제어 방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a control method, an apparatus, and a program of an electronic device for displaying an augmented reality.
가상현실(Virtual Reality)은 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 기술이다. Virtual Reality is a technology that enables humans to experience real life in a virtual world created with computers.
한편, 가상현실(VR·virtual reality)과 현실 세계에 가상정보를 더해 보여주는 기술인 증강현실(AR:augmented reality)을 혼합한 기술은 혼합현실(MR:mixed reality)이라고 한다. VR과 AR, MR은 모두 실제로 존재하지 않은 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. 다만 AR은 실제 현실에 가상의 정보를 더해 보여주는 방식이고, VR은 모두 허구의 상황이 제시된다는 점에서 차이가 있다. MR은 AR과 VR을 혼합해 현실 배경에 현실과 가상의 정보를 혼합시켜 제공하는데, 대용량 데이터를 처리할 수 있는 기술이 필요하다.On the other hand, a technology that combines virtual reality (VR) and augmented reality (AR), a technology that adds virtual information to the real world, is called mixed reality (MR). VR, AR, and MR all have something in common in that they are technologies that enable people to recognize reality by realizing a reality that does not exist. However, there is a difference in that AR is a method of adding virtual information to real reality, and in VR, all fictional situations are presented. MR mixes AR and VR to provide a mixture of real and virtual information in a real background, and a technology that can process large amounts of data is required.
근래에는 스마트폰과 같은 전자 장치로 간단한 증강현실을 생성하여 표시하는 방법에 대한 연구가 활발한 실정이다.In recent years, research on a method of generating and displaying a simple augmented reality with an electronic device such as a smartphone is active.
본 발명이 해결하고자 하는 과제는 증강현실 표시를 위한 전자 장치의 제어 방법, 장치 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to provide a method, apparatus, and program for controlling an electronic device for displaying an augmented reality.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 카메라, 메모리, 디스플레이 및 프로세서를 포함하는 전자 장치의 제어 방법은, 상기 카메라가, QR 코드를 포함하는 제품 영상을 획득하는 단계; 상기 프로세서가, 상기 QR 코드 이미지를 획득하는 단계; 상기 프로세서가, 상기 메모리로부터 기 저장된 QR 코드의 크기 정보를 획득하는 단계; 상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 QR 코드의 이미지 정보를 바탕으로, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 획득하는 단계; 상기 프로세서가, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 바탕으로 상기 QR 코드에 대응되는 오브젝트에 대한 정보를 획득하는 단계; 상기 프로세서가, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 바탕으로 상기 오브젝트가 표시될 영역을 획득하는 단계; 및 상기 디스플레이가, 상기 획득된 오브젝트를 상기 영역에 표시하는 단계; 를 포함한다.A method of controlling an electronic device including a camera, a memory, a display, and a processor according to an aspect of the present invention for solving the above-described problems includes: obtaining, by the camera, a product image including a QR code; Obtaining, by the processor, the QR code image; Obtaining, by the processor, size information of a previously stored QR code from the memory; Obtaining, by the processor, size and gaze information of a product displayed on the display based on size information of the previously stored QR code and image information of the QR code; Acquiring, by the processor, information on an object corresponding to the QR code based on the size and gaze information of the product displayed on the display; Obtaining, by the processor, an area in which the object is to be displayed based on the size and gaze information of the product displayed on the display; And displaying, by the display, the acquired object in the area. Includes.
이때, 상기 제어 방법은, 상기 전자 장치의 이동에 따라 상기 QR 코드의 이미지의 크기 및 시선 정보가 기 설정된 비율 이상 변경되는 경우, 상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 변경된 QR 코드의 이미지 정보를 바탕으로, 상기 디스플레이에 표시되는 변경된 제품의 크기 및 변경된 시선 정보를 획득하는 단계; 상기 프로세서가, 상기 디스플레이에 표시되는 제품의 변경된 크기 및 변경된 시선 정보를 바탕으로 상기 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 상기 오브젝트가 표시될 변경된 영역을 획득하는 단계; 및 상기 디스플레이가, 상기 획득된 변경된 오브젝트를 상기 변경된 영역에 표시하는 단계; 를 포함할 수 있다.In this case, the control method is, when the size and gaze information of the image of the QR code is changed by more than a preset ratio according to the movement of the electronic device, the processor, the size information of the previously stored QR code and the changed QR code Acquiring the size and changed gaze information of the changed product displayed on the display based on the image information of Obtaining, by the processor, information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed, based on the changed size and changed gaze information of the product displayed on the display; And displaying, by the display, the acquired changed object in the changed area. It may include.
이때, 상기 오브젝트가 모닥불 오브젝트인 경우, 상기 제어 방법은, 상기 디스플레이의 상단 중앙 영역에, 상기 모닥불 오브젝트의 화력 세기를 조절하기 위한 UI를 표시하는 단계; 상기 UI를 통해 상기 모닥불 오브젝트의 화력 세기를 조절하기 위한 사용자 명령이 입력되면, 상기 사용자 명령에 대응되게 상기 모닥불 오브젝트를 변경하여 표시하는 단계;를 포함할 수 있다.In this case, when the object is a bonfire object, the control method may include displaying a UI for adjusting the intensity of fire power of the bonfire object in an upper center area of the display; When a user command for adjusting the intensity of the firepower of the bonfire object is input through the UI, changing and displaying the bonfire object corresponding to the user command.
이때, 상기 오브젝트가 물고기 오브젝트인 경우, 상기 표시하는 단계는, 상기 획득된 영역 내부에서 상기 물고기 오브젝트를 이동시키는 단계; 및 상기 물고기 오브젝트를 제어하기 위한 사용자 명령이 입력되면, 상기 사용자 명령에 대응되게 상기 물고기 오브젝트를 이동시키는 단계; 를 포함할 수 있다.In this case, when the object is a fish object, the displaying may include moving the fish object within the acquired area; And when a user command for controlling the fish object is input, moving the fish object to correspond to the user command. It may include.
이때, 상기 제어 방법은, 상기 카메라가, 기 설정된 주기마다 상기 QR 코드에 대한 정보를 업데이트 하는 단계; 및 상기 카메라가, 기 설정된 주기마다 상기 QR 코드 이미지를 업데이트 하는 단계;를 포함하고, 상기 QR 코드에 대한 정보를 업데이트 하는 단계는, 상기 카메라와 상기 QR 코드 사이에 장애물이 존재하여, 상기 QR 코드의 일부만 촬영되는 경우, 촬영된 상기 QR 코드의 일부를 바탕으로 QR 코드의 이미지 형상을 복원하는 단계; 및 상기 복원된 QR 코드의 이미지 형상을 바탕으로 상기 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 상기 오브젝트가 표시될 변경된 영역을 획득하는 단계;를 포함할 수 있다.In this case, the control method includes the steps of, by the camera, updating information on the QR code every preset period; And updating, by the camera, the QR code image every preset period, wherein the step of updating the information on the QR code includes an obstacle exists between the camera and the QR code, and the QR code When only a part of the QR code is photographed, restoring the image shape of the QR code based on a part of the photographed QR code; And acquiring information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed, based on the image shape of the restored QR code.
이때, 상기 물고기 오브젝트를 이동시키는 단계는, 상기 전자 장치의 사용자로부터 음성 신호를 입력 받아 음성 인식 데이터를 생성하는 단계; 상기 음성 인식 데이터에 기초하여 상기 물고기 오브젝트의 이동을 제어하는 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계; 상기 이동 제어 블록에 대응하여 상기 물고기 오브젝트의 이동을 제어하는 단계; 상기 이동 제어 블록을 나타내는 명령블록 이미지를 생성하는 단계; 및 상기 명령블록 이미지를 표시하는 단계; 를 포함할 수 있다.In this case, the moving of the fish object may include generating voice recognition data by receiving a voice signal from a user of the electronic device; Generating a movement control block for controlling movement of the fish object and a command corresponding to the movement control block based on the speech recognition data; Controlling the movement of the fish object in response to the movement control block; Generating a command block image representing the movement control block; And displaying the command block image. It may include.
이때, 상기 이동 제어 블록이 이동 속도 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는, 상기 음성 인식 데이터에 이동 속도 정보가 포함된 경우, 상기 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 및 상기 음성 인식 데이터에 이동 속도 정보가 포함되지 않은 경우 경우, 상기 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 상기 음절 간격 정보에 대응하여 상기 이동 속도 정보를 생성하고, 상기 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 를 포함할 수 있다.In this case, when the movement control block includes a movement speed control command, generating the movement control block and the command corresponding to the movement control block includes the movement speed information when the speech recognition data includes movement speed information. Generating a movement speed control statement corresponding to the speed information; And when movement speed information is not included in the speech recognition data, syllable spacing information is generated based on the speech recognition data, and the movement speed information is generated in response to the syllable spacing information, and the generated movement speed Generating a movement speed control statement corresponding to the information; It may include.
이때, 상기 이동 제어 블록이 이동 반복수 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는, 상기 음성 인식 데이터에 이동 반복수 정보가 포함된 경우, 상기 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계; 및 상기 음성 인식 데이터에 이동 반복수 정보가 포함되지 않은 경우, 상기 음성 신호에 기초하여 신호 세기 정보를 생성하고, 상기 신호 세기 정보에 대응하여 상기 이동 반복수 정보를 생성하고, 상기 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계;를 포함할 수 있다.At this time, when the movement control block includes a movement repetition number control command, the step of generating the movement control block and the command corresponding to the movement control block includes movement repetition number information in the speech recognition data, Generating a movement repetition number control statement corresponding to the movement repetition number information; And when movement repetition number information is not included in the speech recognition data, signal strength information is generated based on the speech signal, and the movement repetition number information is generated in response to the signal strength information, and the generated movement repetition It may include; generating a movement repetition number control statement corresponding to the number information.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.
상술한 본 발명의 다양한 실시에 따라, 전자 장치는 QR 코드에 대응되는 증강 현실을 표시하고, 증강현실로 표시된 오브젝트를 제어할 수 있는 새로운 효과가 존재한다.According to various embodiments of the present invention described above, there is a new effect that an electronic device can display an augmented reality corresponding to a QR code and control an object displayed in the augmented reality.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시예에 따른 증강 현실을 제공하기 위한 전자 장치를 도시한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 전자 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 QR 코드의 구성을 설명하기 위한 예시도이다.
도 4a 내지 도 4d는 본 발명의 일 실시예에 따른 증강 현실 표시 방법을 도시한 예시도이다.
도 5a 내지 도 5d는 본 발명의 또 다른 실시예에 따른 증강 현실 표시 방법을 도시한 예시도이다.1 is an exemplary diagram illustrating an electronic device for providing augmented reality according to an embodiment of the present invention.
2 is a block diagram of an electronic device according to an embodiment of the present invention.
3 is an exemplary view for explaining the configuration of a QR code according to an embodiment of the present invention.
4A to 4D are exemplary diagrams illustrating a method of displaying an augmented reality according to an exemplary embodiment of the present invention.
5A to 5D are exemplary diagrams illustrating a method of displaying an augmented reality according to another embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "module" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer refers to all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to embodiments. For example, the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and an application running on each device, but is not limited thereto.
이하에서는 도 1 내지 도 5d를 바탕으로, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings based on FIGS. 1 to 5D.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each of the steps described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.
도 1에 도시된 바와 같이, 전자 장치(100)는 QR 코드를 포함하는 제품을 촬영할 수 있다. 전자 장치(100)는 카메라(110)을 통해 획득된 배경 영상을 디스플레이(130)에 표시함과 함께 QR 코드 정보에 대응되는 오브젝트를 디스플레이(130)에 중첩하여 표시할 수 있다.1, the
도 2는 본 발명의 일 실시예에 따른 전자 장치의 블록도이다.2 is a block diagram of an electronic device according to an embodiment of the present invention.
본 발명에 따른 전자 장치(100)는 카메라(110), 프로세서(120), 디스플레이(130), 입력부(140), 마이크(150), 스피커(160), 메모리(170) 및 통신부(180)를 포함할 수 있다The
카메라(110)는 배경 영상을 촬영할 수 있다. 구체적으로 카메라(110)는 배경 영상에 포함된 QR 코드를 촬영하여 배경 영상과 오브젝트를 중첩하여 표시할 수 있다.The
카메라(110)는 상술한 바와 같이 이미지를 촬영할 수 있는 구성이다. 카메라(110)는 렌즈, 셔터, 조리개, 이미지 센서, AFE(Analog Front End), TG(Timing Generator)를 포함할 수 있다. The
구체적으로, 렌즈(미도시)는, 피사체에 반사된 광이 입사하는 구성으로, 줌 렌즈 및 포커스 렌즈 중 적어도 하나의 렌즈를 포함할 수 있다. 셔터(미도시)는 빛이 이미지 촬영 장치(100)로 들어오는 시간을 조절한다. 셔터 스피드에 따라 이미지 센서의 노광된 픽셀에 축적되는 광량이 결정된다. 조리개(미도시)는 렌즈를 통과하여 이미지 촬영 장치(100) 내부로 입사되는 광의 양을 조절하는 구성이다. 이미지 센서(미도시)는 렌즈를 통과한 피사체의 상이 결상되는 구성이다. Specifically, a lens (not shown) has a configuration in which light reflected on a subject is incident, and may include at least one of a zoom lens and a focus lens. The shutter (not shown) adjusts the time when light enters the
이미지 처리부(170)는 카메라(110)에 의해 촬영된 로우 이미지 데이터를 처리하여 YCbCr 데이터로 만들 수 있다. 또한, 이미지 블랙 레벨을 결정하며, 색상별 감도비를 조정할 수 있다. 그 외에도 이미지 처리부(170)는 화이트 밸런스를 조정하고, 감마 보정, 색 보간, 색 보정, 해상도 변환을 수행할 수 있다.The
프로세서(120)는 전자 장치(100)의 전반적인 동작을 제어한다.The
프로세서(120)는 RAM, ROM, 메인 CPU, 제1 내지 n 인터페이스, 버스를 포함할 수 있다. 이때, RAM, ROM, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다. The
ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(170)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(170)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM stores an instruction set for booting the system. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the
메인 CPU는 메모리(170)에 액세스하여, 메모리(170)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 메인 CPU는 메모리(170)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU accesses the
제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to nth interfaces are connected to the various components described above. One of the interfaces may be a network interface that is connected to an external device through a network.
디스플레이(130)는 다양한 형태의 디스플레이 패널로 구현될 수 있다. 예를 들어, 디스플레이 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), AM-OLED(Active-Matrix Organic Light-Emitting Diode), LcoS(Liquid Crystal on Silicon) 또는 DLP(Digital Light Processing) 등과 같은 다양한 디스플레이 기술로 구현될 수 있다. 또한, 디스플레이(130)는 플렉서블 디스플레이(flexible display)의 형태로 전자 장치(100)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다.The
입력부(140)는 사용자 명령을 입력 받을 수 있다. 입력부(140)는 다양한 형태로 구성될 수 있다. 예를 들어 입력부(140)는 디스플레이(130) 및 터치 감지부(미도시)와 결합하여 터치 스크린으로 구현될 수 있다. 그러나 이러한 구성에 한정되는 것은 아니며, 입력부(140)는 버튼을 포함하거나, 외부 리모컨으로 구성될 수 있으며, 음성 입력을 위한 마이크(150)로 구성될 수도 있으며, 카메라(110)와 결합하여 모션 입력을 수행할 수도 있다.The input unit 140 may receive a user command. The input unit 140 may be configured in various forms. For example, the input unit 140 may be implemented as a touch screen in combination with the
특히, 입력부(140)는 제품 이미지를 편집하기 위한 사용자 명령을 입력받을 수 있다. 이때, 입력된 사용자 명령은 롱프레스 명령, 더블 탭 명령, 스와이프 명령 등 일 수 있다.In particular, the input unit 140 may receive a user command for editing a product image. In this case, the input user command may be a long press command, a double tap command, a swipe command, or the like.
메모리(170)는 전자 장치(100)를 구동시키기 위한 O/S(Operating System)가 저장될 수 있다. 또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 프로그램이나 어플리케이션이 저장될 수도 있다. 메모리(170)는 프로그램 또는 어플리케이션의 실행 중에 입력되거나 설정 또는 생성되는 각종 데이터 등과 같은 다양한 정보가 저장될 수 있다. The
또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 모듈을 포함할 수 있으며, 프로세서(120)는 메모리(170)에 저장된 각종 소프트웨어 모듈을 실행하여 본 개시의 다양한 실시 예들에 따른 전자 장치(100)의 동작을 수행할 수 있다.In addition, the
또한, 메모리(170)는 카메라(110)에 의해 촬영된 공간 이미지 및 외부로부터 수신한 다양한 이미지를 저장할 수 있다. 이를 위해, 메모리(150)는 플래시 메모리(Flash Memory) 등과 같은 반도체 메모리나 하드디스크(Hard Disk) 등과 같은 자기 저장 매체 등을 포함할 수 있다.In addition, the
통신부(180)는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부(180)는 와이파이 칩, 블루투스 칩, NFC칩, 무선 통신 칩 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.특히, 통신부(180)는 외부 장치(예를 들어, 제품 이미지를 제공하는 컨텐츠 서버 등)로부터 다양한 정보를 수신할 수 있다. 예를 들어, 통신부(180)는 외부 장치로부터 다양한 실내 이미지 및 제품 정보, 제품 이미지를 수신하고 수신된 정보를 메모리(170)에 저장할 수 있다.The
도 3은 본 발명의 일 실시예에 따른 QR 코드의 구성을 설명하기 위한 예시도이다.3 is an exemplary view for explaining the configuration of a QR code according to an embodiment of the present invention.
하나의 QR Code는 기능 패턴(function pattern)과 인코딩 영역(encoding region)으로 구분되며, 세부적인 기능 패턴에는 finder pattern, alignment pattern, timing pattern 등으로 구성되며, 인코딩 영역에는 format information, version information, data and error correction codewords 등의 요소들로 구성될 수 있다.One QR Code is divided into a function pattern and an encoding region, and the detailed function pattern consists of a finder pattern, alignment pattern, and timing pattern, and the encoding area includes format information, version information, and data. It can be composed of elements such as and error correction codewords.
이때 기능 패턴(function pattern)들은 항상 QR Code의 같은 자리와 공간을 차지할 수 있다. 기능 패턴들로 하여금 고속 인식과 인식률 향상에 도움이 된다. At this time, function patterns can always occupy the same place and space in the QR Code. The functional patterns help high-speed recognition and improvement of recognition rate.
또한, 각 구성요소들의 상세 정보는 다음과 같다. 첫째, finder pattern은 고정적으로 세 개의 방향에 사각형이 위치할 수 있다. 둘째, 세 개의 finder pattern을 이어주는 2개 점선의 timing pattern이 존재할 수 있다. 셋째, format information은 finder pattern 주변을 둘러싸고 있는 사각형 박스일 수 있다. 넷째, 버전 정보는 버전 7 이상부터 방향 패턴 좌측과 상측에 version information이 자리하고 버전 2 이상부터는 alignment pattern이 고정된 위치에 자리할 수 있다. 하지만 QR Code의 구성요소는 버전에 따라 다소 상이하게 구성될 수 있음은 물론이다.In addition, detailed information of each component is as follows. First, the finder pattern can be fixedly positioned in three directions. Second, there may be two dotted timing patterns connecting three finder patterns. Third, the format information may be a square box surrounding the finder pattern. Fourth, as for the version information, version information may be located on the left and upper sides of the direction pattern from version 7 or higher, and may be located at a position where the alignment pattern is fixed from version 2 or higher. However, it goes without saying that the components of the QR Code can be configured somewhat differently depending on the version.
이하에서는 상술한 전자 장치(100)의 구성을 바탕으로 본 발명의 동작에 대하여 구체적으로 설명한다.Hereinafter, the operation of the present invention will be described in detail based on the configuration of the
먼저, 카메라(110)는, QR 코드를 포함하는 제품 영상을 획득할 수 있다. 이후, 프로세서(120)는, QR 코드 이미지를 획득할 수 있다. 이후, 프로세서(120)는, 메모리(170)로부터 기 저장된 QR 코드의 크기 정보를 획득할 수 있다. First, the
이후, 프로세서(120)는, 기 저장된 QR 코드의 크기 정보 및 QR 코드의 이미지 정보를 바탕으로, 디스플레이(130)에 표시되는 제품의 크기 및 시선 정보(또는 기울기 정보)를 획득할 수 있다.Thereafter, the
이후, 프로세서(120)는, 디스플레이(130)에 표시되는 제품의 크기 및 시선 정보(또는 기울기 정보)를 바탕으로 QR 코드에 대응되는 오브젝트에 대한 정보를 획득할 수 있다.Thereafter, the
구체적으로, 동일한 제품을 촬영하는 경우라고 하더라도, 촬영 각도에 따라 제품이 디스플레이에 표시되는 모양이 상이할 수 있다. 예를 들어, 도 4a, 도 4b 및 도 5a, 도 5b에 도시된 바와 같이, 전자 장치(100)와 제품이 평행한 평면 상에서 촬영되는 경우와 도 4c, 도 4d 및 도 5c, 도 5d에 도시된 바와 같이, 전자 장치(100)와 제품이 평행하지 않은(즉, 비스듬한) 평면 상에서 촬영되는 경우 전자 장치(100)에 표시되는 배경 영상은 상이할 수 있다.Specifically, even if the same product is photographed, the shape of the product displayed on the display may be different depending on the photographing angle. For example, as shown in FIGS. 4A, 4B, and 5A, 5B, a case where the
따라서, 전자 장치(100)는 QR 코드의 크기 정보(예를 들어, 가로 3cm, 세로 3cm의 정사각형)를 메모리(170)에 기 저장하고, 카메라(110)를 통해 촬영된 이미지 상의 QR 코드의 크기 정보를 바탕으로 후술하는 오브젝트의 크기 및 기울기를 결정할 수 있다.예를 들어, 촬영된 이미지 상의 QR 코드의 크기 정보가 가로 2cm, 세로 2cm의 정사각형인 경으, 전자 장치(100)는 오브젝트의 크기를 기 설정된 크기(즉, 3cm, 세로 3cm의 정사각형인 QR 코드에 대응되는 크기)보다 1.5배 확대할 수 있다. 또 다른 예로, 촬영된 이미지 상의 QR 코드의 크기 정보가 가로 3cm, 세로 2cm의 사각형인 경우, 전자 장치(100)는 오브젝트를 기 설정된 크기에서 3cm, 세로 3cm의 정사각형인 QR 코드에 대응되는 기울기로 변환할 수 있다.Accordingly, the
이후, 프로세서(120)는, 디스플레이(130)에 표시되는 제품의 크기 및 시선 정보(또는 기울기 정보)를 바탕으로 오브젝트가 표시될 영역을 획득할 수 있다.Thereafter, the
즉, 전자 장치(100)는 카메라(110)를 통해 촬영된 이미지 상의 QR 코드의 크기 정보를 바탕으로 오브젝트의 크기 및 기울기를 결정할 수 있을 뿐만 아니라, 오브젝트가 표시될 영역을 결정할 수 있다.That is, the
즉, 도 5b에 도시된 바와 같이, 전자 장치(100)와 QR 코드가 평행한 평면 상에 위치하는 경우의 영역은 도 5d에 도시된 바와 같이, 전자 장치(100)와 QR 코드가 평행한 평면 상에 위치하지 않는 경우의 영역보다 큰 영역일 수 있다.That is, as shown in FIG. 5B, the area when the
상술한 과정을 통해, 전자 장치(100)는 도 5a 내지 도 5d와 같이 제품이 물고기 오브젝트를 포함하는 경우, 전자 장치(100) 상에서 물 영역 안에만 물고기가 위치하도록 할 수 있다.Through the above-described process, when the product includes a fish object as shown in FIGS. 5A to 5D, the
이후, 디스플레이(130)는, 획득된 오브젝트를 영역에 표시할 수 있다. Thereafter, the
한편, 전자 장치의 이동에 따라 QR 코드의 이미지의 크기 및 시선 정보(또는 기울기 정보)가 기 설정된 비율 이상 변경되는 경우, 프로세서(120)는, 기 저장된 QR 코드의 크기 정보 및 변경된 QR 코드의 이미지 정보를 바탕으로, 디스플레이(130)에 표시되는 변경된 제품의 크기 및 변경된 시선 정보(또는 기울기 정보)를 획득할 수 있다. On the other hand, when the size and gaze information (or tilt information) of the image of the QR code is changed by more than a preset ratio according to the movement of the electronic device, the
이후, 프로세서(120)는, 디스플레이(130)에 표시되는 제품의 변경된 크기 및 변경된 시선 정보(또는 기울기 정보)를 바탕으로 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 오브젝트가 표시될 변경된 영역을 획득할 수 있다.Thereafter, the
이후, 디스플레이(130)는, 획득된 변경된 오브젝트를 변경된 영역에 표시할 수 있다.Thereafter, the
즉, 전자 장치(100)가 스마트 폰으로 구현되는 경우, 일반적으로 QR 코드를 촬영하는 스마트폰은 고정된 위치에 존재하는 경우보다 자유롭게 이동하는 경우가 많을 것이다. 손떨림과 같은 경미한 이동에 대하여는, 전자 장치(100)는 오브젝트 또는 오브젝트가 표시되는 영역을 변경할 필요성이 적으나, 큰 이동의 경우에는 오브젝트 또는 오브젝트가 표시되는 영역을 변경할 필요성이 증가한다. That is, when the
따라서, 전자 장치(100)는 카메라(100)에 의해 촬영된 QR 코드가 기 설정된 비율(예를 들어 10%) 이상 변경되는 경우, 오브젝트의 크기 및 기울기, 오브젝트가 표시될 영역을 변경할 수 있다.Accordingly, when the QR code captured by the
한편, 본 발명의 일 실시예에 따라, 도 4a 내지 도 4d에 도시된 바와 같이, 오브젝트가 모닥불 오브젝트인 경우, 전자 장치(100)는 디스플레이(130)의 상단 중앙 영역에, 모닥불 오브젝트의 화력 세기를 조절하기 위한 UI를 표시할 수 있다.On the other hand, according to an embodiment of the present invention, as shown in FIGS. 4A to 4D, when the object is a bonfire object, the
본 발명의 또 다른 실시예에 따라, 전자 장치(100)는 UI를 통해 모닥불 오브젝트의 화력 세기를 조절하기 위한 사용자 명령이 입력되면, 사용자 명령에 대응되게 모닥불 오브젝트를 변경하여 표시할 수 있다.According to another embodiment of the present invention, when a user command for adjusting the intensity of firepower of a bonfire object is input through the UI, the
한편, 도 5a 내지 도 5d에 도시된 바와 같이, 전자 장치(100)는 오브젝트가 물고기 오브젝트인 경우, 획득된 영역 내부에서 물고기 오브젝트를 이동시킬 수 있다.Meanwhile, as illustrated in FIGS. 5A to 5D, when the object is a fish object, the
이후, 물고기 오브젝트를 제어하기 위한 사용자 명령이 입력되면, 전자 장치(100)는 사용자 명령에 대응되게 물고기 오브젝트를 이동시킬 수 있다. Thereafter, when a user command for controlling the fish object is input, the
한편, 카메라(110)는, 기 설정된 주기마다 QR 코드에 대한 정보(즉, 표시될 오브젝트의 종류 및 오브젝트가 표시될 영역 정보)를 업데이트 할 수 있다. Meanwhile, the
즉, 기 설정된 주기마다 QR 코드에 대한 정보가 업데이트 되지 않는다면, QR 코드가 디스플레이(130) 상에서 사라진 경우에도 전자 장치(100)는 오브젝트를 계속하여 표시하게 된다. That is, if the information on the QR code is not updated every preset period, the
따라서, 전자 장치(100)는 기 설정된 주기마다 QR 코드가 카메라(110)에 의해 촬영되는지를 판단하고, QR 코드가 카메라(110)에 의해 촬영되지 않는 경우, 오브젝트 표시를 중단할 수 있다.Accordingly, the
이후, 카메라(110)는, 기 설정된 주기마다 QR 코드 이미지를 업데이트 할 수 있다.Thereafter, the
구체적으로, QR 코드가 카메라(110)에 의해 촬영되는 경우라도, 전자 장치(100)의 위치가 변경되어 오브젝트의 크기 및 기울기, 오브젝트가 표시될 영역이 변경될 필요성이 존재한다. 따라서, 전자 장치(100)는 QR 코드의 정보 뿐만 아니라, (크기 정보를 포함하는)QR 코드 이미지를 함께 업데이트 할 수 있다.Specifically, even when the QR code is photographed by the
한편, QR 코드에 대한 정보를 업데이트 하는 단계는, 카메라(110)와 QR 코드 사이에 장애물이 존재하여, QR 코드의 일부만 촬영되는 경우, 촬영된 QR 코드의 일부를 바탕으로 QR 코드의 이미지 형상을 복원할 수 있다.On the other hand, in the step of updating the information on the QR code, when there is an obstacle between the
구체적으로, 최초 오브젝트를 표시하는 경우, 전자 장치(100) QR 코드의 정보를 완벽하게 수신하여야 하지만, 오브젝트가 표시된 이후에는, 전자 장치(100)는 QR 코드를 촬영하고 있는지 여부만이 중요하다. 이때, 카메라(110)와 QR 코드 사이에 장애물이 존재하여 QR 코드 일부가 장애물에 의해 디스플레이(130) 상에서 사라지는 경우가 존재할 수 있다.Specifically, when displaying an object for the first time, information of the QR code of the
그러나, QR 코드 일부가 장애물에 의해 디스플레이(130) 상에서 사라지는 경우라도, 전자 장치(100)가 오브젝트를 계속하여 표시하는 것이 원활한 증강 현실을 구축하기 위한 하나의 대안이 될 수 있다.However, even if part of the QR code disappears on the
따라서, 전자 장치(100)는 QR 코드 일부가 장애물에 의해 디스플레이(130) 상에서 사라지는 경우라도, 디스플레이(130)에 의해 획득된 QR 코드의 일부 영역을 바탕으로 QR 코드의 이미지 형상을 획득할 수 있다. 즉, 이 경우 전자 장치(100)가 획득하는 QR 코드의 이미지 형상은 QR 코드를 디코딩하여 얻는 정보가 아닌, QR 코드의 크기 및 기울기 정보일 수 있다.Accordingly, even when a part of the QR code disappears from the
이후, 복원된 QR 코드의 이미지 형상을 바탕으로 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 오브젝트가 표시될 변경된 영역을 획득할 수 있다.Thereafter, based on the image shape of the restored QR code, information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed may be obtained.
한편, 본 발명의 다양한 실시예에 따라, 도 5a 내지 도 5d에 도시된 물고기 오브젝트는 사용자 명령에 따라 위치를 이동할 수 있다. 이때, 사용자 명령은 음성 명령일 수 있으나, 이에 한정되는 것은 아니다.Meanwhile, according to various embodiments of the present disclosure, the fish object illustrated in FIGS. 5A to 5D may be moved according to a user command. In this case, the user command may be a voice command, but is not limited thereto.
예를 들어, 사용자 명령은 디스플레이(130) 상에 표시된 물고기를 드래그 하여 이동시키는 명령일 수 있다. 또는, 사용자 명령은 호버링 명령, 더블탭 입력 등일 수 있음은 물론이다.For example, the user command may be a command for dragging and moving a fish displayed on the
이하에서는 음성 명령을 바탕으로 물고기 오브젝트를 이동시키는 과정에 대해 설명한다. Hereinafter, a process of moving a fish object based on a voice command will be described.
전자 장치(100)는 사용자로부터 음성 신호를 입력 받아 음성 인식 데이터를 생성할 수 있다. 일 실시예로, 프로세서(120)는 디스플레이(130) 상에 사용자로부터 음성 명령 입력 버튼을 표시하고, 사용자로부터 음성 명령 입력 버튼을 통한 명령이 입력되면, 음성 명령을 입력받도록 마이크(150)를 활성화시킬 수 있다.The
여기서, 음성 인식 데이터는 프로세서(120)에 의해 음성 신호를 전처리하고, 전처리된 음성 신호로부터 음성 특징을 추출하며, 추출된 음성 특징을 음성 모델과 비교하고, 비교 결과에 기초하여 생성되는 데이터일 수 있다. 예를 들어, 음성 인식 데이터는 음성 명령에 대응되는 텍스트일 수 있다.Here, the speech recognition data may be data generated based on a result of preprocessing a speech signal by the
이때, 프로세서(120)가 음성 명령에 대응되는 음성 인식 데이터를 생성하는데 사용하는 음성 인식 방법의 종류는 음성 인식 데이터를 생성하는 한 제한되지 않음은 물론이다.In this case, the type of speech recognition method used by the
일 실시예로, 프로세서(120)는 인식된 음성 인식 데이터를 나타내는 음성 인식 데이터 이미지를 표시하도록 디스플레이(130)를 제어할 수 있다.In an embodiment, the
또 다른 실시예로, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되는지 여부를 사용자로부터 입력받을 수 있는 확인 입력 영역을 표시하도록 디스플레이(130)를 제어할 수 있다.In another embodiment, the
프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응됨을 나타내는 확인 입력이 입력되면 이동동 제어 블록을 생성하는 과정을 수행할 수 있다. 반대로, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되지 않음을 나타내는 비확인 입력이 입력되면 음성 명령을 재입력받는 과정을 수행할 수 있다.The
이후, 프로세서(120)는 음성 인식 데이터에 기초하여 물고기 오브젝트의 이동을 제어하는 이동 제어 블록 및 이동 제어 블록에 대응되는 명령문을 생성하고, 이동 제어 블록에 대응하여 물고기 오브젝트의 이동을 제어할 수 있다. Thereafter, the
이후, 프로세서(120)는 이동 제어 블록을 나타내는 명령블록 이미지를 생성하고, 명령블록 이미지를 표시하기 위해 디스플레이(130)를 제어할 수 있다.Thereafter, the
이때, 이동 제어 블록은 설정된 프로그래밍 언어 종류에 대응되는 이동 종류 제어 명령문, 이동 속도 제어 명령문 및 이동 반복수 제어 명령문 중 하나 이상을 포함할 수 있다.In this case, the movement control block may include at least one of a movement type control command, a movement speed control command, and a movement repetition number control command corresponding to the set programming language type.
또한, 이동 종류 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 이동 종류 제어 명령어와 이동 종류 제어 변수를 포함하고, 이동 속도 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 이동 속도 제어 명령어와 이동 속도 제어 변수를 포함하고, 이동 반복수 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 이동 반복수 제어 명령어와 이동 반복수 제어 변수를 포함할 수 있다.In addition, the movement type control statement includes a movement type control command and movement type control variable corresponding to the set programming language type, and the movement speed control statement includes a movement speed control command and movement speed control variable corresponding to the set programming language type. And, the movement repetition number control command may include a movement repetition number control command and a movement repetition number control variable corresponding to a set programming language type.
프로세서(120)는 음성 인식 데이터에서 이동 종류 정보를 검색하고, 이동 종류 정보가 검색되면 검색된 이동 종류 정보에 대응하는 이동 종류 제어 명령문을 생성할 수 있다.The
예를 들어, 음성 인식 데이터가 "오른쪽으로 빠르게 움직여"인 경우, 이동 종류 정보는 "오른쪽", 이동 종류 정보에 대응하는 이동 종류 제어 명령문은 "#move right"일 수 있다. 이를 위해, 이동 종류 정보에 해당하는 텍스트가 프로그래밍 언어 종류별 이동 종류 제어 명령문에 매칭되어 메모리(170)에 저장될 수 있다.For example, when the voice recognition data is "move to the right quickly", the movement type information may be "right", and the movement type control command corresponding to the movement type information may be "#move right". To this end, the text corresponding to the movement type information may be matched with a movement type control statement for each programming language type and stored in the
한편, 이동 제어 블록이 이동 속도 제어 명령문을 포함하는 경우, 프로세서(120)는, 음성 인식 데이터에 이동 속도 정보가 포함된 경우, 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다.Meanwhile, when the movement control block includes a movement speed control command, the
반면에, 음성 인식 데이터에 이동 속도 정보가 포함되지 않은 경우, 프로세서(120)는, 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 음절 간격 정보에 대응하여 이동 속도 정보를 생성하고, 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다. On the other hand, when the movement speed information is not included in the speech recognition data, the
구체적으로, 프로세서(120)는 음성 인식 데이터에서 이동 속도 정보를 검색하고, 이동 속도 정보가 검색되면 검색된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다. 예를 들어, 음성 인식 데이터가 "오른쪽으로 빠르게 움직여"인 경우, 이동 속도 정보는 "빠르게", 이동 속도 정보에 대응하는 이동 종류 제어 명령문은 "#speed up"일 수 있다.Specifically, the
이를 위해, 이동 속도 정보에 해당하는 텍스트가 프로그래밍 언어 종류별 이동 속도 제어 명령문)에 매칭되어 메모리(170)에 저장될 수 있다.To this end, a text corresponding to the movement speed information may be matched with a movement speed control statement for each programming language type and stored in the
반대로, 프로세서(120)는 음성 인식 데이터에서 이동 속도 정보가 검색되지 않으면, 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 음절 간격 정보에 대응하여 이동 속도 정보를 생성하고, 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다.Conversely, if the movement speed information is not retrieved from the speech recognition data, the
구체적으로, 프로세서(120)는 음성 인식 데이터에 포함된 음절 중에서 어느 하나의 음절의 종료 시점과 어느 하나의 음절의 다음 음절의 시작 시점 간에 제1 시간차를 산출하고, 복수의 제1 시간차의 평균 시간차를 음절 간격 정보로 생성할 수 있다.Specifically, the
이후, 프로세서(120)는 기준 시간차 대비 음절 간격 정보가 나타내는 평균 시간차의 시간차 비율을 산출하고, 기본 이동 속도에 시간차 비율을 적용하여 이동 속도 정보로 생성할 수 있다.Thereafter, the
예를 들어, 프로세서(120)는 평균 시간차가 "12msec"이고, 기준 시간차가 "10msec"이며, 기본 이동 속도가 "1배속"인 경우, 시간차 비율을 "120%"로 산출하고, 기본 이동 속도 "1배속"에 시간차 비율 "120%"를 적용하여 이동 속도 정보를 "1.2배속"으로 생성할 수 있다.For example, when the average time difference is "12msec", the reference time difference is "10msec", and the basic movement speed is "1x", the
한편, 이동 제어 블록이 이동 반복수 제어 명령문을 포함하는 경우, 프로세서(120)는, 음성 인식 데이터에 이동 반복수 정보가 포함된 경우, 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다.Meanwhile, when the movement control block includes the movement repetition number control statement, the
반면에, 음성 인식 데이터에 이동 반복수 정보가 포함되지 않은 경우, 프로세서(120)는 음성 신호에 기초하여 신호 세기 정보를 생성하고, 신호 세기 정보에 대응하여 이동 반복수 정보를 생성하고, 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다.On the other hand, when the movement repetition number information is not included in the speech recognition data, the
구체적으로, 한편, 프로세서(120)는 음성 인식 데이터에서 이동 반복수 정보를 검색하고, 이동 반복수 정보가 검색되면 검색된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다. 예를 들어, 음성 인식 데이터가 "호수를 두번 왕복해"인 경우, 이동 반복수 정보는 "두번", 이동 반복수 정보에 대응하는 이동 종류 제어 명령문은 "#two"일 수 있다.Specifically, on the other hand, the
이를 위해, 이동 반복수 정보에 해당하는 텍스트가 프로그래밍 언어 종류별 이동 반복수 제어 명령문에 매칭되어 메모리(170)에 저장될 수 있다.To this end, a text corresponding to the movement repetition number information may be matched with a movement repetition number control statement for each programming language type and stored in the
반대로, 프로세서(120)는 음성 인식 데이터에서 이동 반복수 정보 검색되지 않으면, 음성 신호에 기초하여 신호 세기 정보를 생성하고, 신호 세기 정보에 대응하여 이동 반복수 정보를 생성하고, 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다.Conversely, if the movement repetition number information is not retrieved from the speech recognition data, the
구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 신호 세기 중에서 최대 신호 세기를 신호 세기 정보로 생성할 수 있다.Specifically, the
이후, 프로세서(120)는 기준 신호 세기 대비 신호 세기 정보가 나타내는 최대 신호 세기의 신호 세기 비율을 산출하고, 기본 이동 반복수에 신호 세기 비율을 적용하여 이동 반복수 정보로 생성할 수 있다.Thereafter, the
예를 들어, 프로세서(120)는 최대 신호 세기가 "200DB"이고, 기준 신호 세기가 "100DB"이며, 기본 이동 반복수가 "1회"인 경우, 신호 세기 비율을 "200%"로 산출하고, 기본 이동 반복수 "1회"에 신호 세기 비율 "200%"를 적용하여 이동 반복수 정보를 "2회"로 생성할 수 있다. 이때, 이동 반복수 정보는 반올림되어 자연수로 생성될 수 있다.For example, when the maximum signal strength is "200DB", the reference signal strength is "100DB", and the number of basic movement repetitions is "one time", the
한편, 프로세서(120)는 음성 신호에 기초하여 사용자의 사용자 특성 정보를 생성하고, 사용자 특성 정보에 대응하여 이동 제어 블록의 프로그래밍 언어 종류를 설정할 수 있다.Meanwhile, the
여기서, 사용자 특성 정보는 사용자 성별 정보 및 사용자 연령 정보를 포함할 수 있다.Here, the user characteristic information may include user gender information and user age information.
구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 주파수로부터 평균 주파수를 산출하고, 음성 주파수 별로 사용자 연령 정보가 매핑된 주파수-사용자 특성 테이블로부터 평균 주파수에 대응되는 사용자의 사용자 연령 정보를 독출할 수 있다.Specifically, the
한편, 본 발명의 다양한 실시예에 따라, 이동 제어 블록은 다양한 명령문을 포함할 수 있음은 물론이다. 일 실시예로, 프로세서(120)는 입력된 음성의 주파수에 따라 특정 동작을 수행하도록 오브젝트를 제어할 수 있다. 예를 들어 입력된 음성의 주파수가 기 설정된 범위(예를 들어 60헤르츠 내지 80헤르츠)를 벗어나는 경우, 프로세서(120)는 물고기 오브젝트가 물밖으로 뛰쳐나오는 동작을 수행하도록 오브젝트를 제어할 수 있다. 구체적으로, 입력된 주파수가 60헤르츠 미만인 경우, 프로세서(120)는 디스플레이(130)에 표시된 복수의 물고기 오브젝트 중 기 설정된 크기 이상의 물고기 오브젝트가 물밖으로 뛰쳐나오는 동작을 수행하도록 오브젝트를 제어할 수 있다. 또는 입력된 주파수가 80헤르츠 초과인 경우, 프로세서(120)는 디스플레이(130)에 표시된 복수의 물고기 오브젝트 중 기 설정된 크기 이하의 물고기 오브젝트가 물밖으로 뛰쳐나오는 동작을 수행하도록 오브젝트를 제어할 수 있다.On the other hand, according to various embodiments of the present invention, it goes without saying that the movement control block may include various commands. In an embodiment, the
또 다른 실시예로, 프로세서(120)는 입력된 음성의 주파수가 높을수록 물고기 오브젝트가 높게 뛰쳐오르는 동작을 수행할 수 있음은 물론이다.In another embodiment, it goes without saying that the
한편, 본 발명의 또 다른 실시예에 따라, 전자 장치(100)는 디스플레이(130)에 표시된 배경 영상의 초점 거리에 따라, 오브젝트를 다르게 표시할 수 있다. 예를 들어, 디스플레이(130)에 표시된 제품에 카메라(110)의 초점이 맞춰진 경우, 프로세서(120)는 오브젝트를 선명하게 표시하고, 디스플레이(130)에 표시된 제품이 아닌 다른 영역에 카메라(110)의 초점이 맞춰진 경우, 프로세서(120)는 오브젝트를 흐릿하게 표시할 수 있다.Meanwhile, according to another embodiment of the present invention, the
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in combination with a computer that is hardware. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming elements, including C, C++ , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.
100 : 전자 장치100: electronic device
Claims (10)
상기 카메라가, QR 코드를 포함하는 제품 영상을 획득하는 단계;
상기 프로세서가, 상기 QR 코드 이미지를 획득하는 단계;
상기 프로세서가, 상기 메모리로부터 기 저장된 QR 코드의 크기 정보를 획득하는 단계;
상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 QR 코드의 이미지 정보를 바탕으로, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 획득하는 단계;
상기 프로세서가, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 바탕으로 상기 QR 코드에 대응되는 오브젝트에 대한 정보를 획득하는 단계;
상기 프로세서가, 상기 디스플레이에 표시되는 제품의 크기 및 시선 정보를 바탕으로 상기 오브젝트가 표시될 영역을 획득하는 단계; 및
상기 디스플레이가, 상기 획득된 오브젝트를 상기 영역에 표시하는 단계; 를 포함하고,
상기 오브젝트가 물고기 오브젝트인 경우,
상기 표시하는 단계는,
상기 획득된 영역 내부에서 상기 물고기 오브젝트를 이동시키는 단계; 및
상기 물고기 오브젝트를 제어하기 위한 사용자 명령이 입력되면, 상기 사용자 명령에 대응되게 상기 물고기 오브젝트를 이동시키는 단계; 를 포함하고,
상기 물고기 오브젝트를 이동시키는 단계는,
상기 전자 장치의 사용자로부터 음성 신호를 입력 받아 음성 인식 데이터를 생성하는 단계;
상기 음성 인식 데이터에 기초하여 상기 물고기 오브젝트의 이동을 제어하는 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계;
상기 이동 제어 블록에 대응하여 상기 물고기 오브젝트의 이동을 제어하는 단계;
상기 이동 제어 블록을 나타내는 명령블록 이미지를 생성하는 단계; 및
상기 명령블록 이미지를 표시하는 단계; 를 포함하는 제어 방법.In the control method of an electronic device including a camera, a memory, a display and a processor,
Obtaining, by the camera, a product image including a QR code;
Obtaining, by the processor, the QR code image;
Obtaining, by the processor, size information of a previously stored QR code from the memory;
Obtaining, by the processor, size information and gaze information of a product displayed on the display based on size information of the previously stored QR code and image information of the QR code;
Obtaining, by the processor, information on an object corresponding to the QR code based on the size and gaze information of the product displayed on the display;
Obtaining, by the processor, an area in which the object is to be displayed based on the size and gaze information of the product displayed on the display; And
Displaying, by the display, the acquired object in the area; Including,
If the object is a fish object,
The displaying step,
Moving the fish object within the acquired area; And
When a user command for controlling the fish object is input, moving the fish object to correspond to the user command; Including,
The step of moving the fish object,
Generating voice recognition data by receiving a voice signal from a user of the electronic device;
Generating a movement control block for controlling movement of the fish object and a statement corresponding to the movement control block based on the speech recognition data;
Controlling the movement of the fish object in response to the movement control block;
Generating a command block image representing the movement control block; And
Displaying the command block image; Control method comprising a.
상기 제어 방법은,
상기 전자 장치의 이동에 따라 상기 QR 코드의 이미지의 크기 및 시선 정보가 기 설정된 비율 이상 변경되는 경우, 상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 변경된 QR 코드의 이미지 정보를 바탕으로, 상기 디스플레이에 표시되는 변경된 제품의 크기 및 변경된 시선 정보를 획득하는 단계;
상기 프로세서가, 상기 디스플레이에 표시되는 제품의 변경된 크기 및 변경된 시선 정보를 바탕으로 상기 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 상기 오브젝트가 표시될 변경된 영역을 획득하는 단계; 및
상기 디스플레이가, 상기 획득된 변경된 오브젝트를 상기 변경된 영역에 표시하는 단계; 를 포함하는 제어 방법.The method of claim 1,
The control method,
When the size and gaze information of the image of the QR code is changed by more than a preset ratio according to the movement of the electronic device, the processor, based on the size information of the previously stored QR code and image information of the changed QR code, Acquiring the size of the changed product and changed gaze information displayed on the display;
Obtaining, by the processor, information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed, based on the changed size and changed gaze information of the product displayed on the display; And
Displaying, by the display, the acquired changed object in the changed area; Control method comprising a.
상기 오브젝트가 모닥불 오브젝트인 경우,
상기 제어 방법은,
상기 디스플레이의 상단 중앙 영역에, 상기 모닥불 오브젝트의 화력 세기를 조절하기 위한 UI를 표시하는 단계;
상기 UI를 통해 상기 모닥불 오브젝트의 화력 세기를 조절하기 위한 사용자 명령이 입력되면, 상기 사용자 명령에 대응되게 상기 모닥불 오브젝트를 변경하여 표시하는 단계;를 포함하는 제어 방법.The method of claim 1,
If the object is a bonfire object,
The control method,
Displaying a UI for adjusting the intensity of heat of the bonfire object in the upper center area of the display;
When a user command for adjusting the intensity of the firepower of the bonfire object is input through the UI, changing and displaying the bonfire object corresponding to the user command.
상기 제어 방법은,
상기 카메라가, 기 설정된 주기마다 상기 QR 코드에 대한 정보를 업데이트 하는 단계; 및
상기 카메라가, 기 설정된 주기마다 상기 QR 코드 이미지를 업데이트 하는 단계;를 포함하고,
상기 QR 코드에 대한 정보를 업데이트 하는 단계는,
상기 카메라와 상기 QR 코드 사이에 장애물이 존재하여, 상기 QR 코드의 일부만 촬영되는 경우, 촬영된 상기 QR 코드의 일부를 바탕으로 QR 코드의 이미지 형상을 복원하는 단계; 및
상기 복원된 QR 코드의 이미지 형상을 바탕으로 상기 QR 코드에 대응되는 변경된 오브젝트에 대한 정보 및 상기 오브젝트가 표시될 변경된 영역을 획득하는 단계;를 포함하는 제어 방법.The method of claim 2,
The control method,
Updating, by the camera, information on the QR code every preset period; And
Including, the camera, updating the QR code image every preset period,
Updating the information on the QR code,
When an obstacle exists between the camera and the QR code and only a part of the QR code is photographed, restoring an image shape of the QR code based on a part of the QR code; And
And acquiring information on a changed object corresponding to the QR code and a changed area in which the object is to be displayed based on the image shape of the restored QR code.
상기 이동 제어 블록이 이동 속도 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는,
상기 음성 인식 데이터에 이동 속도 정보가 포함된 경우, 상기 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 및
상기 음성 인식 데이터에 이동 속도 정보가 포함되지 않은 경우 경우, 상기 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 상기 음절 간격 정보에 대응하여 상기 이동 속도 정보를 생성하고, 상기 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 를 포함하는 제어 방법.The method of claim 1,
When the movement control block includes a movement speed control command, generating a command corresponding to the movement control block and the movement control block,
Generating a movement speed control statement corresponding to the movement speed information when movement speed information is included in the speech recognition data; And
When movement speed information is not included in the speech recognition data, syllable spacing information is generated based on the speech recognition data, and the movement speed information is generated in response to the syllable spacing information, and the generated movement speed information Generating a movement speed control statement corresponding to a; Control method comprising a.
상기 이동 제어 블록이 이동 반복수 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는,
상기 음성 인식 데이터에 이동 반복수 정보가 포함된 경우, 상기 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계; 및
상기 음성 인식 데이터에 이동 반복수 정보가 포함되지 않은 경우, 상기 음성 신호에 기초하여 신호 세기 정보를 생성하고, 상기 신호 세기 정보에 대응하여 상기 이동 반복수 정보를 생성하고, 상기 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계;를 포함하는 제어 방법.The method of claim 1,
When the movement control block includes a movement repetition number control statement, generating a command corresponding to the movement control block and the movement control block,
Generating a movement repetition number control statement corresponding to the movement repetition number information when the movement repetition number information is included in the speech recognition data; And
When the speech recognition data does not include movement repetition number information, signal strength information is generated based on the voice signal, and the movement repetition number information is generated in response to the signal strength information, and the generated movement repetition number The control method comprising; generating a movement repetition number control statement corresponding to the information.
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.A memory for storing one or more instructions; And
And a processor that executes the one or more instructions stored in the memory,
The processor executes the one or more instructions,
An apparatus for performing the method of claim 1.
A computer program combined with a computer as hardware and stored in a recording medium readable by a computer to perform the method of claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200062129A KR102214338B1 (en) | 2020-05-25 | 2020-05-25 | Control method, device and program of electronic device for augmented reality display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200062129A KR102214338B1 (en) | 2020-05-25 | 2020-05-25 | Control method, device and program of electronic device for augmented reality display |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102214338B1 true KR102214338B1 (en) | 2021-02-10 |
Family
ID=74560873
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200062129A KR102214338B1 (en) | 2020-05-25 | 2020-05-25 | Control method, device and program of electronic device for augmented reality display |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102214338B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102348584B1 (en) * | 2020-10-20 | 2022-01-07 | 한림대학교 산학협력단 | Smart trash bin control method, device and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130047148A (en) * | 2011-10-31 | 2013-05-08 | 에스케이씨앤씨 주식회사 | Method and system for providing content in augmented reality |
KR20130139148A (en) * | 2012-06-12 | 2013-12-20 | 김성은 | Sports article storing information, hall of fame system using thereof and method for providing hall of fame service |
KR101397873B1 (en) | 2011-11-04 | 2014-07-01 | 인하대학교 산학협력단 | Apparatus and method for providing contents matching related information |
KR20190035373A (en) * | 2017-09-26 | 2019-04-03 | 에이케이엔코리아 주식회사 | Virtual movile device implementing system and control method for the same in mixed reality |
KR20200031666A (en) * | 2017-08-31 | 2020-03-24 | 애플 인크. | Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments |
-
2020
- 2020-05-25 KR KR1020200062129A patent/KR102214338B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130047148A (en) * | 2011-10-31 | 2013-05-08 | 에스케이씨앤씨 주식회사 | Method and system for providing content in augmented reality |
KR101397873B1 (en) | 2011-11-04 | 2014-07-01 | 인하대학교 산학협력단 | Apparatus and method for providing contents matching related information |
KR20130139148A (en) * | 2012-06-12 | 2013-12-20 | 김성은 | Sports article storing information, hall of fame system using thereof and method for providing hall of fame service |
KR20200031666A (en) * | 2017-08-31 | 2020-03-24 | 애플 인크. | Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments |
KR20190035373A (en) * | 2017-09-26 | 2019-04-03 | 에이케이엔코리아 주식회사 | Virtual movile device implementing system and control method for the same in mixed reality |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102348584B1 (en) * | 2020-10-20 | 2022-01-07 | 한림대학교 산학협력단 | Smart trash bin control method, device and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107105130B (en) | Electronic device and operation method thereof | |
US10628670B2 (en) | User terminal apparatus and iris recognition method thereof | |
KR102381713B1 (en) | Photographic method, photographic apparatus, and mobile terminal | |
US20170142379A1 (en) | Image projection system, projector, and control method for image projection system | |
US9420169B2 (en) | Imaging device, imaging method, and program | |
US9952667B2 (en) | Apparatus and method for calibration of gaze detection | |
KR20160135242A (en) | Remote device control via gaze detection | |
US20220124240A1 (en) | Target tracking method and system, readable storage medium, and mobile platform | |
EP3671408A1 (en) | Virtual reality device and content adjusting method therefor | |
US20210304658A1 (en) | Screen display method and apparatus, and method and apparatus for generating grayscale mapping information | |
KR102214338B1 (en) | Control method, device and program of electronic device for augmented reality display | |
US20180357036A1 (en) | Display system, display device, and method of controlling display system | |
CN112241199B (en) | Interaction method and device in virtual reality scene | |
JP6270578B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
KR20220111821A (en) | Control method of electronic device based on augmented reality display | |
US10491833B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable recording medium | |
CN109804408B (en) | Consistent spherical photo and video orientation correction | |
CN115623313A (en) | Image processing method, image processing apparatus, electronic device, and storage medium | |
JP6529571B1 (en) | Program, method executed by computer to provide virtual space, and information processing apparatus for executing program | |
KR20210059612A (en) | Asymmetric normalized correlation layer for deep neural network feature matching | |
US9860480B2 (en) | Method for processing information and electronic device | |
KR102415774B1 (en) | Control method of server for performing selective arrangement of multiple images | |
WO2022062554A1 (en) | Multi-lens video recording method and related device | |
KR102454833B1 (en) | Display device displaying image of virtual aquarium, and control method for user terminal communicating to display device | |
KR102510050B1 (en) | Control method of electronic device to acquire command for either going straight or back based on joint tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |