KR102348584B1 - Smart trash bin control method, device and program - Google Patents

Smart trash bin control method, device and program Download PDF

Info

Publication number
KR102348584B1
KR102348584B1 KR1020200135784A KR20200135784A KR102348584B1 KR 102348584 B1 KR102348584 B1 KR 102348584B1 KR 1020200135784 A KR1020200135784 A KR 1020200135784A KR 20200135784 A KR20200135784 A KR 20200135784A KR 102348584 B1 KR102348584 B1 KR 102348584B1
Authority
KR
South Korea
Prior art keywords
information
movement
processor
control
smart trash
Prior art date
Application number
KR1020200135784A
Other languages
Korean (ko)
Inventor
이은주
박준형
박지민
한재경
김서희
김지환
Original Assignee
한림대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림대학교 산학협력단 filed Critical 한림대학교 산학협력단
Priority to KR1020200135784A priority Critical patent/KR102348584B1/en
Application granted granted Critical
Publication of KR102348584B1 publication Critical patent/KR102348584B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65FGATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
    • B65F1/00Refuse receptacles; Accessories therefor
    • B65F1/14Other constructional features; Accessories
    • B65F1/16Lids or covers
    • B65F1/1623Lids or covers with means for assisting the opening or closing thereof, e.g. springs
    • B65F1/1638Electromechanically operated lids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65FGATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
    • B65F1/00Refuse receptacles; Accessories therefor
    • B65F1/14Other constructional features; Accessories
    • B65F2001/1653Constructional features of lids or covers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65FGATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
    • B65F2210/00Equipment of refuse receptacles
    • B65F2210/168Sensing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65FGATHERING OR REMOVAL OF DOMESTIC OR LIKE REFUSE
    • B65F2210/00Equipment of refuse receptacles
    • B65F2210/172Solar cells
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02WCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
    • Y02W30/00Technologies for solid waste management
    • Y02W30/10Waste collection, transportation, transfer or storage, e.g. segregated refuse collecting, electric or hybrid propulsion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A method for controlling a system including an electronic device and a smart trash bin is disclosed. The smart trash bin comprises: a main body; a photovoltaic rechargeable battery; a photovoltaic panel; an ultrasonic sensor; a servomotor; a connection unit which connects the main body with the servomotor; and a control unit. The control method comprises: a step in which the ultrasonic sensor detects an object around the main body; a step in which the servomotor operates to open a lid of the main body when the object around the main body is detected by the ultrasonic sensor; a step in which the control unit transmits a control signal for maintaining the servomotor for a preset time to the servomotor after the lid is opened and closed; and a step in which the control unit controls the servomotor to close the lid of the main body when the preset time has elapsed. According to the present invention, by means of the method, a user can easily throw away waste.

Description

스마트 쓰레기통의 제어 방법, 장치 및 프로그램{Smart trash bin control method, device and program}Smart trash bin control method, device and program {Smart trash bin control method, device and program}

본 발명은 스마트 쓰레기통의 제어 방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a method, apparatus and program for controlling a smart trash can.

일반적으로 쓰레기통은 뚜껑이 구비되어 있다. 이는, 뚜껑이 없는 쓰레기통의 경우, 쓰레기통 내부의 쓰레기로부터 발생하는 악취가 발생하거나, 내부 스레기가 외부 요인에 의해 외부로 유출되는 것을 방지하기 위함이다.In general, the trash can is provided with a lid. This is to prevent odors generated from the garbage inside the trash can or the internal garbage from leaking out due to external factors in the case of a trash can without a lid.

이러한 뚜껑이 달린 쓰레기통을 사용하는 사용자는, 쓰레기통의 뚜껑을 손으로 여는 것이 아닌, 쓰레기로 밀어서 쓰레기를 버리는 경우가 대부분이다. 이에 따라, 쓰레기통의 뚜껑은 오염되거나, 쓰래기 배출 과정에서 쓰레기가 쓰레기통에 제대로 들어가지 않는 경우가 종종 발생한다.A user who uses such a trash can with a lid does not open the lid of the trash can by hand, but pushes the trash can and throws out the trash. Accordingly, it often occurs that the lid of the trash can is contaminated or the trash does not properly enter the trash can during the waste discharging process.

이에 따라, 쓰레기를 버리기 위한 동작이 감지되면, 자동으로 쓰레기통 뚜껑이 열리게 되는 스마트 쓰레기통의 필요성이 대두되고 있다.Accordingly, there is a need for a smart trash bin that automatically opens the trash bin lid when a motion to dispose of the trash is detected.

등록특허공보 제10-2047180호, 2019.11.20Registered Patent Publication No. 10-2047180, 2019.11.20

본 발명이 해결하고자 하는 과제는 스마트 쓰레기통의 제어 방법, 장치 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to provide a method, apparatus and program for controlling a smart trash bin.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 전자 장치 및 스마트 쓰레기통을 포함하는 시스템의 제어 방법은, 상기 스마트 쓰레기통이, 본체, 태양광 충전 배터리, 태양광 패널, 초음파 센서, 서보모터, 상기 본체와 상기 서보모터를 연결하는 연결부 및 제어부를 포함하고, 상기 초음파 센서가, 본체 주변의 물체를 감지하는 단계; 상기 서보모터가, 상기 초음파 센서로부터 상기 본체 주변의 물체를 감지하면, 상기 본체의 뚜껑을 개방하도록 동작하는 단계; 상기 제어부가, 상기 뚜껑이 개폐된 후, 기 설정된 시간동안 서보모터를 유지하기 위한 제어신호를 상기 서보모터로 전송하는 단계; 및 상기 제어부가, 상기 기 설정된 시간이 경과하면, 상기 서보모터를 제어하여 상기 본체의 뚜껑을 폐쇄하는 단계; 를 포함한다.The control method of a system including an electronic device and a smart trash bin according to an aspect of the present invention for solving the above-mentioned problems, the smart trash bin includes a main body, a solar rechargeable battery, a solar panel, an ultrasonic sensor, a servo motor, detecting, by the ultrasonic sensor, an object around the main body, including a connection unit and a controller connecting the main body and the servomotor; when the servomotor detects an object around the main body from the ultrasonic sensor, operating to open the lid of the main body; transmitting, by the control unit, a control signal for maintaining the servomotor for a preset time to the servomotor after the lid is opened and closed; and controlling, by the control unit, when the preset time elapses, controlling the servomotor to close the lid of the main body; includes

이때, 상기 스마트 쓰레기통은, 상기 태양광 충전 배터리 및 상기 태양광 패널로부터 전원을 공급받을 수 있다.In this case, the smart trash bin may receive power from the solar rechargeable battery and the solar panel.

이때, 상기 제어부는, 아두이노 보드로 구성되고, 상기 서보모터 및 상기 초음파 센서를 제어할 수 있다.In this case, the controller may be configured with an Arduino board, and may control the servomotor and the ultrasonic sensor.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상술한 본 발명의 다양한 실시예에 따라, 스마트 쓰레기통과 연동된 시스템은, 손쉽게 쓰레기를 버릴 수 있도록 함과 함께 사용자에게 엔터테인을 제공할 수 있다.According to various embodiments of the present invention described above, the system interlocked with the smart trash bin can provide entertainment to the user while allowing the user to easily dispose of the trash.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 시스템도이다.
도 2는 본 발명의 일 실시예에 따른 전자 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 스마트 쓰레기통의 블록도이다.
도 4는 본 발명의 일 실시예에 다른 스마트 쓰레기통의 동작을 설명하기 위한 흐름도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 스마트 쓰레기통의 개폐과정을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 스마트 쓰레기통과 연동되는 전자 장치를 설명하기 위한 예시도이다.
1 is a system diagram according to an embodiment of the present invention.
2 is a block diagram of an electronic device according to an embodiment of the present invention.
3 is a block diagram of a smart trash can according to an embodiment of the present invention.
4 is a flowchart for explaining the operation of a smart trash can according to an embodiment of the present invention.
5 and 6 are exemplary views for explaining the opening and closing process of the smart trash can according to an embodiment of the present invention.
7 is an exemplary diagram for explaining an electronic device interworking with a smart trash can according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and “unit” or “module” performs certain roles. However, “part” or “module” is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside on an addressable storage medium or to reproduce one or more processors. Thus, as an example, “part” or “module” refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Components and functionality provided within “parts” or “modules” may be combined into a smaller number of components and “parts” or “modules” or as additional components and “parts” or “modules”. can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component may be placed “above” of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer refers to all types of hardware devices including at least one processor, and may be understood as encompassing software configurations operating in the corresponding hardware device according to embodiments. For example, a computer may be understood to include, but is not limited to, smart phones, tablet PCs, desktops, notebooks, and user clients and applications running on each device.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described in this specification is described as being performed by a computer, but the subject of each step is not limited thereto, and at least a portion of each step may be performed in different devices according to embodiments.

도 1은 본 발명의 일 실시예에 따른 시스템도이다.1 is a system diagram according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 시스템은 전자 장치(100) 및 스마트 쓰레기통(200)을 포함할 수 있다. 일 실시예로, 스마트 쓰레기통(200)은 사람의 접근을 감지하여 쓰레기통을 개폐할 수 있다. 또 다른 실시예로, 스마트 쓰레기통(200)은 전자 장치(100)의 접근을 감지하여 쓰레기통을 개폐할 수 있다. 이하에서는, 전자 장치(100) 및 스마트 쓰레기통(200)의 구성을 상세히 살펴본다.As shown in FIG. 1 , the system according to the present invention may include an electronic device 100 and a smart trash can 200 . In one embodiment, the smart trash bin 200 may open and close the trash bin by sensing a person's approach. As another embodiment, the smart trash bin 200 may open and close the trash bin by sensing the approach of the electronic device 100 . Hereinafter, the configuration of the electronic device 100 and the smart trash can 200 will be described in detail.

도 2에 도시된 바와 같이, 전자 장치(100)는 카메라(110), 프로세서(120), 디스플레이(130), 입력부(140), 마이크(150), 스피커(160), 메모리(170) 및 통신부(180)를 포함할 수 있다2 , the electronic device 100 includes a camera 110 , a processor 120 , a display 130 , an input unit 140 , a microphone 150 , a speaker 160 , a memory 170 , and a communication unit. may contain 180

카메라(110)는 배경 영상을 촬영할 수 있다. 구체적으로 카메라(110)는 후술하는 다양한 실시예에 따라 스마트 쓰레기통(200) 및 주변 영상을 촬영할 수 있다.The camera 110 may capture a background image. Specifically, the camera 110 may capture images of the smart trash bin 200 and surrounding areas according to various embodiments to be described later.

카메라(110)는 상술한 바와 같이 이미지를 촬영할 수 있는 구성이다. 카메라(110)는 렌즈, 셔터, 조리개, 이미지 센서, AFE(Analog Front End), TG(Timing Generator)를 포함할 수 있다. The camera 110 is configured to take an image as described above. The camera 110 may include a lens, a shutter, an aperture, an image sensor, an analog front end (AFE), and a timing generator (TG).

구체적으로, 렌즈(미도시)는, 피사체에 반사된 광이 입사하는 구성으로, 줌 렌즈 및 포커스 렌즈 중 적어도 하나의 렌즈를 포함할 수 있다. 셔터(미도시)는 빛이 이미지 촬영 장치(100)로 들어오는 시간을 조절한다. 셔터 스피드에 따라 이미지 센서의 노광된 픽셀에 축적되는 광량이 결정된다. 조리개(미도시)는 렌즈를 통과하여 이미지 촬영 장치(100) 내부로 입사되는 광의 양을 조절하는 구성이다. 이미지 센서(미도시)는 렌즈를 통과한 피사체의 상이 결상되는 구성이다. Specifically, the lens (not shown) may include at least one of a zoom lens and a focus lens as a configuration through which light reflected on a subject is incident. A shutter (not shown) controls the time for which light enters the image photographing apparatus 100 . The shutter speed determines the amount of light accumulated in the exposed pixels of the image sensor. The aperture (not shown) is a configuration for controlling the amount of light incident into the image photographing apparatus 100 through the lens. An image sensor (not shown) is configured to form an image of a subject passing through a lens.

이미지 처리부(170)는 카메라(110)에 의해 촬영된 로우 이미지 데이터를 처리하여 YCbCr 데이터로 만들 수 있다. 또한, 이미지 블랙 레벨을 결정하며, 색상별 감도비를 조정할 수 있다. 그 외에도 이미지 처리부(170)는 화이트 밸런스를 조정하고, 감마 보정, 색 보간, 색 보정, 해상도 변환을 수행할 수 있다.The image processing unit 170 may process raw image data photographed by the camera 110 to create YCbCr data. In addition, the image black level is determined, and the sensitivity ratio for each color can be adjusted. In addition, the image processing unit 170 may adjust white balance, and perform gamma correction, color interpolation, color correction, and resolution conversion.

프로세서(120)는 전자 장치(100)의 전반적인 동작을 제어한다.The processor 120 controls the overall operation of the electronic device 100 .

프로세서(120)는 RAM, ROM, 메인 CPU, 제1 내지 n 인터페이스, 버스를 포함할 수 있다. 이때, RAM, ROM, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다. The processor 120 may include a RAM, a ROM, a main CPU, first to n interfaces, and a bus. In this case, the RAM, ROM, main CPU, first to n interfaces, etc. may be connected to each other through a bus.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(170)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(170)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM stores an instruction set for booting the system, and the like. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory 170 to the RAM according to the command stored in the ROM, and executes the O/S to boot the system. When booting is completed, the main CPU copies various application programs stored in the memory 170 to the RAM, and executes the application programs copied to the RAM to perform various operations.

메인 CPU는 메모리(170)에 액세스하여, 메모리(170)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 메인 CPU는 메모리(170)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU accesses the memory 170 and performs booting using the O/S stored in the memory 170 . In addition, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory 170 .

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.

디스플레이(130)는 다양한 형태의 디스플레이 패널로 구현될 수 있다. 예를 들어, 디스플레이 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), AM-OLED(Active-Matrix Organic Light-Emitting Diode), LcoS(Liquid Crystal on Silicon) 또는 DLP(Digital Light Processing) 등과 같은 다양한 디스플레이 기술로 구현될 수 있다. 또한, 디스플레이(130)는 플렉서블 디스플레이(flexible display)의 형태로 전자 장치(100)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다.The display 130 may be implemented as various types of display panels. For example, the display panel is a Liquid Crystal Display (LCD), Organic Light Emitting Diodes (OLED), Active-Matrix Organic Light-Emitting Diode (AM-OLED), Liquid Crystal on Silicon (LcoS), or Digital Light Processing (DLP). It may be implemented with various display technologies, such as. Also, the display 130 may be coupled to at least one of a front area, a side area, and a rear area of the electronic device 100 in the form of a flexible display.

입력부(140)는 사용자 명령을 입력 받을 수 있다. 입력부(140)는 다양한 형태로 구성될 수 있다. 예를 들어 입력부(140)는 디스플레이(130) 및 터치 감지부(미도시)와 결합하여 터치 스크린으로 구현될 수 있다. 그러나 이러한 구성에 한정되는 것은 아니며, 입력부(140)는 버튼을 포함하거나, 외부 리모컨으로 구성될 수 있으며, 음성 입력을 위한 마이크(150)로 구성될 수도 있으며, 카메라(110)와 결합하여 모션 입력을 수행할 수도 있다.The input unit 140 may receive a user command. The input unit 140 may be configured in various forms. For example, the input unit 140 may be implemented as a touch screen in combination with the display 130 and the touch sensing unit (not shown). However, it is not limited to this configuration, and the input unit 140 includes a button or may be configured as an external remote control, may be configured as a microphone 150 for voice input, and may be combined with the camera 110 to input motion. can also be performed.

메모리(170)는 전자 장치(100)를 구동시키기 위한 O/S(Operating System)가 저장될 수 있다. 또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 프로그램이나 어플리케이션이 저장될 수도 있다. 메모리(170)는 프로그램 또는 어플리케이션의 실행 중에 입력되거나 설정 또는 생성되는 각종 데이터 등과 같은 다양한 정보가 저장될 수 있다. The memory 170 may store an operating system (O/S) for driving the electronic device 100 . Also, the memory 170 may store various software programs or applications for operating the electronic device 100 according to various embodiments of the present disclosure. The memory 170 may store various information such as various data input, set, or generated during execution of a program or application.

또한, 메모리(170)는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 모듈을 포함할 수 있으며, 프로세서(120)는 메모리(170)에 저장된 각종 소프트웨어 모듈을 실행하여 본 개시의 다양한 실시 예들에 따른 전자 장치(100)의 동작을 수행할 수 있다.In addition, the memory 170 may include various software modules for operating the electronic device 100 according to various embodiments of the present disclosure, and the processor 120 executes various software modules stored in the memory 170 to The operation of the electronic device 100 according to various embodiments of the present disclosure may be performed.

또한, 메모리(170)는 카메라(110)에 의해 촬영된 공간 이미지 및 외부로부터 수신한 다양한 이미지를 저장할 수 있다. 이를 위해, 메모리(150)는 플래시 메모리(Flash Memory) 등과 같은 반도체 메모리나 하드디스크(Hard Disk) 등과 같은 자기 저장 매체 등을 포함할 수 있다.Also, the memory 170 may store spatial images captured by the camera 110 and various images received from the outside. To this end, the memory 150 may include a semiconductor memory such as a flash memory or a magnetic storage medium such as a hard disk.

통신부(180)는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부(180)는 와이파이 칩, 블루투스 칩, NFC칩, 무선 통신 칩 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. The communication unit 180 may communicate with an external device. In particular, the communication unit 180 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, an NFC chip, and a wireless communication chip. At this time, the Wi-Fi chip, the Bluetooth chip, and the NFC chip perform communication in a LAN method, a WiFi method, a Bluetooth method, and an NFC method, respectively. In the case of using a Wi-Fi chip or a Bluetooth chip, various types of connection information such as an SSID and a session key are first transmitted and received, and then various types of information can be transmitted and received after a communication connection using this. The wireless communication chip refers to a chip that performs communication according to various communication standards, such as IEEE, ZigBee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE).

한편, 도 3에 도시된 바와 같이, 스마트 쓰레기통(200)은 초음파 센서(210), 제어부(220), 서보모터(230), 연결부(240) 및 본체(250)를 포함할 수 있다.Meanwhile, as shown in FIG. 3 , the smart trash bin 200 may include an ultrasonic sensor 210 , a control unit 220 , a servo motor 230 , a connection unit 240 , and a body 250 .

초음파 센서(210)는, 스마트 쓰레기통(200) 주변의 사용자를 감지하기 위한 구성으로, 제어부(220)의 제어에 따라 주변 환경을 감지한다.The ultrasonic sensor 210 is configured to detect a user around the smart trash bin 200 , and senses the surrounding environment under the control of the controller 220 .

구체적으로, 도 6에 도시된 바와 같이, 초음파 센서(210)는 스마트 쓰레기통(200) 상단에 위치할 수 있다. 다만, 이는 하나의 예시에 불과할 뿐이며, 실시예에 따라, 초음파 센서(210)는 스마트 쓰레기통(200)의 좌측, 우측 또는 하단에 위치할 수 있음은 물론이다.Specifically, as shown in FIG. 6 , the ultrasonic sensor 210 may be located at the top of the smart trash bin 200 . However, this is only an example, and according to an embodiment, the ultrasonic sensor 210 may be located on the left, right or bottom of the smart trash bin 200 of course.

제어부(220)는 초음파 센서(210) 및 서보모터(230)를 제어하기 위한 구성이다. 일 실시예에 따라, 제어부(220)는 아두이노 보드로 구현될 수 있다.The controller 220 is configured to control the ultrasonic sensor 210 and the servomotor 230 . According to an embodiment, the controller 220 may be implemented as an Arduino board.

초음파 센서(210)는, 사람의 귀에 들리지 않을 정도로 높은 주파수(약 20 KHz 이상)의 소리인 초음파가 가지고 있는 특성을 이용한 센서. 초음파는 공기나 액체, 고체에 사용할 수 있다. 주파수가 높고 파장이 짧기 때문에 높은 분해력을 계측할 수 있는 특징이 있다. 초음파 센서에 이용되는 파장은 매체의 음속과 음파의 주파수에 따라 결정된다. 초음파 센서는 초음파의 발신소자와 수신소자가 동일하고, 센서 재료로는 자기변형 재료(페라이트 등)나 전압, 전기 변형재료(로셸염, 티탄산 바륨 등)가 사용될 수 있다.The ultrasonic sensor 210 is a sensor using the characteristics of ultrasonic waves, which are sounds of a high frequency (about 20 KHz or more) that are inaudible to the human ear. Ultrasound can be used for air, liquids or solids. Because the frequency is high and the wavelength is short, it has the characteristic of being able to measure high resolution. The wavelength used in the ultrasonic sensor is determined by the speed of sound in the medium and the frequency of the sound wave. The ultrasonic sensor has the same ultrasonic wave transmitting element and receiving element, and a magnetostrictive material (ferrite, etc.) or a voltage or electrostrictive material (Rochelle salt, barium titanate, etc.) may be used as the sensor material.

아두이노란 마이크로컨트롤러의 종류 중 하나로, 물리적인 세계를 감지하고 제어할 수 있는 인터랙티브 객체들과 디지털 장치를 만들기 위한 도구로, 간단한 마이크로컨트롤러(Microcontroller) 보드를 기반으로 한 오픈 소스 컴퓨팅 플랫폼과 소프트웨어 개발 환경을 말하며, 아두이노는 다양한 스위치나 센서로부터 입력 값을 받아들여 LED나 모터와 같은 전자 장치들로 출력을 제어함으로써 환경과 상호작용이 가능한 물건을 만들어 낼 수 있다. 예를 들어 단순한 로봇, 온습도계, 동작 감지기, 음악 및 사운드 장치, 스마트 홈 구현, 유아 장난감 및 로봇 교육 프로그램 등의 다양한 제품들이 아두이노를 기반으로 개발 가능하다. 또한 아두이노는 회로가 오픈소스로 공개되어 있으므로 누구나 직접 보드를 만들고 수정할 수 있는 장점이 있다.Arduino is a type of microcontroller, a tool for creating interactive objects and digital devices that can sense and control the physical world. It is an open source computing platform and software development environment based on a simple microcontroller board. Arduino can create objects that can interact with the environment by receiving input values from various switches or sensors and controlling the output with electronic devices such as LEDs or motors. For example, various products such as simple robots, thermo-hygrometers, motion sensors, music and sound devices, smart home implementation, infant toys and robot education programs can be developed based on Arduino. Also, Arduino has the advantage that anyone can make and modify the board directly because the circuit is open as an open source.

아두이노 보드는 다른 마이크로컨트롤러 플랫폼에 비해 저렴하고, 아두이노 소프트웨어는 윈도우즈, 맥OSX, 리눅스 운영체제 모두에서 작동하여 호환성이 좋으며, 아두이노 프로그래밍 환경은 초보자들이 사용하기 쉬울 뿐 아니라 실력자들이 여러가지 다양한 시도를 하기 위한 유연성을 제공하는 등 사용의 편의성이 보정되며, 소프트웨어 개발을 위한 통합개발환경(IDE)가 제공되므로 컴파일 된 펌웨어(특정 하드웨어 상에서 동작하는 소프트웨어)를 USB를 통해 손쉽게 업로드 할 수 있으며 아두이노 하드웨어 및 소프트웨어는 오픈 소스 툴이기 때문에 고급 프로그래머들에 의해 작성된 확장 소프트웨어 라이브러리들을 구할 수 있으며, 회로 설계자들이 손쉽게 자신만의 모듈을 만들고 개선할 수 있다는 장점이 있어 저비용 고효율의 스마트 쓰레기통(200) 제작이 가능하다.Arduino board is inexpensive compared to other microcontroller platforms, Arduino software is compatible with Windows, Mac OSX, and Linux operating systems Ease of use is corrected, such as providing flexibility for software development, and since an integrated development environment (IDE) is provided for software development, compiled firmware (software that runs on specific hardware) can be easily uploaded via USB and Arduino hardware And since the software is an open source tool, extended software libraries written by advanced programmers can be obtained, and circuit designers can easily create and improve their own modules, making it possible to manufacture low-cost and high-efficiency smart trash cans 200 do.

다만, 본 발명의 다양한 실시예에 따라, 제어부(220)는, 아두이노 보드가 아닌 다양한 마이크로컨트롤러가 사용될 수 있음은 물론이다. 나아가, 제어부(220)는, 마이크로 컨트롤러 이외에, 초음파 센서 및 서보모터의 기능만이 수행되는 별도의 회로도로 구현될 수 있음은 물론이다.However, according to various embodiments of the present invention, it goes without saying that the controller 220 may use various microcontrollers other than the Arduino board. Furthermore, it goes without saying that the control unit 220 may be implemented as a separate circuit diagram in which only the functions of the ultrasonic sensor and the servo motor are performed in addition to the microcontroller.

연결부(240)는 서보모터(230) 및 본체(250)와 연결되어 스마트 쓰레기통(200)의 뚜껑을 여닫기 위한 구성이다.The connection unit 240 is connected to the servo motor 230 and the main body 250 to open and close the lid of the smart trash can 200 .

구체적으로, 도 5에 도시된 바와 같이, 서버모터(230)은 본체(250) 내부에 부착될 수 있으며, 연결부(240)의 일단은 쓰레기통 뚜껑 안쪽면, 타단은 서보모터(230)와 연결될 수 있다.Specifically, as shown in FIG. 5 , the server motor 230 may be attached to the inside of the main body 250 , and one end of the connection part 240 may be connected to the inside surface of the trash can lid, and the other end may be connected to the servomotor 230 . have.

다양한 실시예에 따라, 스마트 쓰레기통(200)은 제어부(220) 및 서보모터(230)의 동작을 위한 전원 공급을 위해, 태양광 충전 배터리 및 태양광 패널을 포함할 수 있음은 물론이다.According to various embodiments, the smart trash can 200 may include a solar rechargeable battery and a solar panel to supply power for the operation of the control unit 220 and the servo motor 230 .

도 4는 본 발명의 일 실시예에 따른 스마트 쓰레기통의 동작을 설명하기 위한 흐름도이다.4 is a flowchart for explaining the operation of a smart trash can according to an embodiment of the present invention.

단계 S110에서, 초음파 센서(210)가, 본체(250) 주변의 물체를 감지할 수 있다.In step S110 , the ultrasonic sensor 210 may detect an object around the main body 250 .

단계 S120에서, 서보모터(230)가, 초음파 센서(210)로부터 본체 주변의 물체를 감지하면, 본체의 뚜껑을 개방하도록 동작할 수 있다.In step S120 , when the servomotor 230 detects an object around the body from the ultrasonic sensor 210 , it may operate to open the lid of the body.

단계 S130에서, 제어부가(220), 뚜껑이 개방된 후, 기 설정된 시간동안 서보모터(230)를 유지하기 위한 제어신호를 서보모터(230)로 전송할 수 있다.In step S130 , the controller 220 may transmit a control signal for maintaining the servomotor 230 to the servomotor 230 for a preset time after the lid is opened.

구체적으로, 초음파 센서(210)가 쓰레기를 버리려는 사람을 감지한 경우, 쓰레기를 버리기 위한 충분한 시간 동안 쓰레기통의 뚜껑이 개방되어 있어야 한다. 따라서, 상술한 바와 같이, 제어부가(220), 뚜껑이 개방된 후, 기 설정된 시간동안 서보모터(230)를 유지하기 위한 제어신호를 서보모터(230)로 전송할 수 있다.Specifically, when the ultrasonic sensor 210 detects a person who intends to throw away the trash, the lid of the trash bin must be opened for a sufficient time to dispose of the trash. Accordingly, as described above, the control unit 220 may transmit a control signal for maintaining the servomotor 230 to the servomotor 230 for a preset time after the lid is opened.

일 실시예에 따라, 서보모터(230)는 하기 알고리즘에 따라 동작할 수 있다.According to an embodiment, the servomotor 230 may operate according to the following algorithm.

[그림 1][Figure 1]

Figure 112020110768773-pat00001
Figure 112020110768773-pat00001

단계 S140에서, 제어부(220)가, 기 설정된 시간이 경과하면, 서보모터(230)를 제어하여 본체(250)의 뚜껑을 폐쇄할 수 있다.In step S140 , the controller 220 may close the lid of the main body 250 by controlling the servomotor 230 when a preset time has elapsed.

한편, 본 발명의 다양한 실시예에 따라, 스마트 쓰레기통(200)은, 전자 장치(100)와 연동하여 다양한 동작을 수행할 수 있다. 본 발명의 일 실시예에 따라, 스마트 쓰레기통(200)은 QR코드를 포함할 수 있다. 이때, 전자 장치(100)는, 스마트 쓰레기통(200)에 부착된 QR코드를 인식하여, 스마트 쓰레기통(200)과 관련된 증강현실을 표시할 수 있다.Meanwhile, according to various embodiments of the present disclosure, the smart trash can 200 may perform various operations in conjunction with the electronic device 100 . According to an embodiment of the present invention, the smart trash can 200 may include a QR code. In this case, the electronic device 100 may recognize the QR code attached to the smart trash can 200 and display augmented reality related to the smart trash can 200 .

구체적으로, 카메라(110)는, QR 코드를 포함하는 스마트 쓰레기통(200) 및 주변 영역을 포함하는 영상을 획득할 수 있다. Specifically, the camera 110 may acquire an image including the smart trash bin 200 including the QR code and the surrounding area.

이후, 프로세서(120)는, 스마트 쓰레기통(200)에 부착된 QR 코드 이미지를 획득할 수 있다. Thereafter, the processor 120 may acquire a QR code image attached to the smart trash bin 200 .

이후, 프로세서(120)는, 스마트 쓰레기통(200)의 정보를 획득하고, 스마트 쓰레기통(200)에 대응되는 QR코드의 크기 정보를 획득할 수 있다. 이때, QR 코드의 크기 정보는 메모리(170)에 기저장되어 있을 수 있음은 물론이다. Thereafter, the processor 120 may obtain information on the smart trash bin 200 , and may acquire information on the size of the QR code corresponding to the smart trash bin 200 . In this case, of course, the size information of the QR code may be pre-stored in the memory 170 .

이후, 프로세서(120)는, 기 저장된 QR 코드의 크기 정보 및 QR 코드의 이미지 정보를 바탕으로, 디스플레이(130)에 표시되는 스마트 쓰레기통(200)의 크기 및 시선 정보(또는 기울기 정보)를 획득할 수 있다.Then, the processor 120, based on the pre-stored size information of the QR code and the image information of the QR code, to obtain the size and gaze information (or tilt information) of the smart trash bin 200 displayed on the display 130. can

이후, 프로세서(120)는, 디스플레이(130)에 표시되는 스마트 쓰레기통(200)의 크기 및 시선 정보(또는 기울기 정보)를 바탕으로 QR 코드에 대응되는 오브젝트에 대한 정보를 획득할 수 있다.Thereafter, the processor 120 may acquire information on the object corresponding to the QR code based on the size and gaze information (or tilt information) of the smart trash bin 200 displayed on the display 130 .

구체적으로, 동일한 제품을 촬영하는 경우라고 하더라도, 촬영 각도에 따라 스마트 쓰레기통(200)이 디스플레이에 표시되는 모양이 상이할 수 있다. 예를 들어, 전자 장치(100)와 스마트 쓰레기통(200)이 평행한 평면 상에서 촬영되는 경우와 전자 장치(100)와 제품이 평행하지 않은(즉, 비스듬한) 평면 상에서 촬영되는 경우 전자 장치(100)에 표시되는 스마트 쓰레기통(200)의 모양은 상이할 수 있다.Specifically, even when the same product is photographed, the shape of the smart trash can 200 displayed on the display may be different depending on the photographing angle. For example, when the electronic device 100 and the smart trash bin 200 are photographed on a parallel plane and when the electronic device 100 and the product are photographed on a non-parallel (ie, oblique) plane, the electronic device 100 The shape of the smart trash can 200 displayed in may be different.

따라서, 전자 장치(100)는 QR 코드의 크기 정보(예를 들어, 가로 4cm, 세로 4cm의 정사각형)를 메모리(170)에 기 저장하고, 카메라(110)를 통해 촬영된 이미지 상의 QR 코드의 크기 정보를 바탕으로 후술하는 미화원 오브젝트의 크기 및 기울기를 결정할 수 있다.Accordingly, the electronic device 100 pre-stores information on the size of the QR code (eg, a square of 4 cm in width and 4 cm in height) in the memory 170 , and the size of the QR code on the image captured by the camera 110 . Based on the information, it is possible to determine the size and inclination of the beautifying agent object, which will be described later.

이후, 프로세서(120)는, 디스플레이(130)에 표시되는 스마트 쓰레기통(200)의 크기 및 시선 정보(또는 기울기 정보)를 바탕으로 미화원 오브젝트가 표시될 영역을 획득할 수 있다.Thereafter, the processor 120 may acquire an area in which the beauty salon object is to be displayed based on the size and gaze information (or tilt information) of the smart trash bin 200 displayed on the display 130 .

즉, 전자 장치(100)는 카메라(110)를 통해 촬영된 이미지 상의 QR 코드의 크기 정보를 바탕으로 오브젝트의 크기 및 기울기를 결정할 수 있을 뿐만 아니라, 오브젝트가 표시될 영역을 결정할 수 있다.That is, the electronic device 100 may determine the size and inclination of the object based on the size information of the QR code on the image captured by the camera 110 as well as determine the area in which the object is to be displayed.

이후, 디스플레이(130)는, 획득된 오브젝트를 영역에 표시할 수 있다. Thereafter, the display 130 may display the obtained object in the area.

본 발명의 다양한 실시예에 따라, 카메라(110)가 스마트 쓰레기통(200)에 부착된 QR 코드를 인식한 경우, 전자 장치(100)는 스마트 쓰레기통(200) 주변의 쓰레기 정보를 획득할 수 있다.According to various embodiments of the present disclosure, when the camera 110 recognizes a QR code attached to the smart trash bin 200 , the electronic device 100 may acquire information about trash around the smart trash bin 200 .

구체적으로, 전자 장치(100)는 카메라(110)를 통해 획득된 영상 정보 중 바닥 정보(지표면 정보)를 획득할 수 있다. 이후, 전자 장치(100)는 지표면과 인접한 복수의 오브젝트 정보를 획득할 수 있다. 지표면과 인접한 복수의 오브젝트 정보는, 기 설정된 크기 이하의 오브젝트 정보일 수 있다.Specifically, the electronic device 100 may acquire floor information (ground surface information) among image information acquired through the camera 110 . Thereafter, the electronic device 100 may acquire information about a plurality of objects adjacent to the ground surface. The plurality of object information adjacent to the ground surface may be object information of a preset size or less.

또는, 전자 장치(100)는 스마트 쓰레기통(200)으로부터 기 설정된 거리 이내의 기 설정된 크기 이내의 오브젝트를 쓰레기 정보로 획득할 수 있다.Alternatively, the electronic device 100 may acquire an object within a preset size within a preset distance from the smart trash bin 200 as garbage information.

전자 장치(100)는 사용자 명령이 입력되면, 증강현실로 표시된 미화원 오브젝트를 쓰레기 오브젝트 근처로 이동시킬 수 있다. 이때, 사용자 명령은 음성 명령일 수 있으나, 이에 한정되는 것은 아니다.When a user command is input, the electronic device 100 may move the beauty salon object displayed in augmented reality to the vicinity of the garbage object. In this case, the user command may be a voice command, but is not limited thereto.

예를 들어, 사용자 명령은 디스플레이(130) 상에 표시된 미화원을 드래그 하여 이동시키는 명령일 수 있다. 또는, 사용자 명령은 호버링 명령, 더블탭 입력 등일 수 있음은 물론이다.For example, the user command may be a command to move the beauty salon displayed on the display 130 by dragging. Alternatively, it goes without saying that the user command may be a hovering command, a double tap input, or the like.

이하에서는 음성 명령을 바탕으로 미화원 오브젝트를 이동시키는 과정에 대해 설명한다. Hereinafter, a process of moving a cleaning agent object based on a voice command will be described.

전자 장치(100)는 사용자로부터 음성 신호를 입력 받아 음성 인식 데이터를 생성할 수 있다. 일 실시예로, 프로세서(120)는 디스플레이(130) 상에 사용자로부터 음성 명령 입력 버튼을 표시하고, 사용자로부터 음성 명령 입력 버튼을 통한 명령이 입력되면, 음성 명령을 입력받도록 마이크(150)를 활성화시킬 수 있다.The electronic device 100 may receive a voice signal from a user and generate voice recognition data. In one embodiment, the processor 120 displays a voice command input button from the user on the display 130 , and when a command is input through the voice command input button from the user, the microphone 150 is activated to receive a voice command input. can do it

여기서, 음성 인식 데이터는 프로세서(120)에 의해 음성 신호를 전처리하고, 전처리된 음성 신호로부터 음성 특징을 추출하며, 추출된 음성 특징을 음성 모델과 비교하고, 비교 결과에 기초하여 생성되는 데이터일 수 있다. 예를 들어, 음성 인식 데이터는 음성 명령에 대응되는 텍스트일 수 있다.Here, the voice recognition data may be data generated by preprocessing a voice signal by the processor 120, extracting voice features from the preprocessed voice signal, comparing the extracted voice features with a voice model, and generating based on the comparison result. have. For example, the voice recognition data may be text corresponding to a voice command.

이때, 프로세서(120)가 음성 명령에 대응되는 음성 인식 데이터를 생성하는데 사용하는 음성 인식 방법의 종류는 음성 인식 데이터를 생성하는 한 제한되지 않음은 물론이다.In this case, the type of the voice recognition method used by the processor 120 to generate the voice recognition data corresponding to the voice command is not limited as long as the voice recognition data is generated.

일 실시예로, 프로세서(120)는 인식된 음성 인식 데이터를 나타내는 음성 인식 데이터 이미지를 표시하도록 디스플레이(130)를 제어할 수 있다.In an embodiment, the processor 120 may control the display 130 to display a voice recognition data image representing the recognized voice recognition data.

또 다른 실시예로, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되는지 여부를 사용자로부터 입력받을 수 있는 확인 입력 영역을 표시하도록 디스플레이(130)를 제어할 수 있다.In another embodiment, the processor 120 may control the display 130 to display a confirmation input area through which a user may input whether the recognized voice recognition data corresponds to a voice command.

프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응됨을 나타내는 확인 입력이 입력되면 이동동 제어 블록을 생성하는 과정을 수행할 수 있다. 반대로, 프로세서(120)는 인식된 음성 인식 데이터가 음성 명령과 대응되지 않음을 나타내는 비확인 입력이 입력되면 음성 명령을 재입력받는 과정을 수행할 수 있다.When a confirmation input indicating that the recognized voice recognition data corresponds to a voice command is input, the processor 120 may perform a process of generating a movement control block. Conversely, when an unconfirmed input indicating that the recognized voice recognition data does not correspond to the voice command is input, the processor 120 may perform a process of re-inputting the voice command.

이후, 프로세서(120)는 음성 인식 데이터에 기초하여 미화원 오브젝트의 이동을 제어하는 이동 제어 블록 및 이동 제어 블록에 대응되는 명령문을 생성하고, 이동 제어 블록에 대응하여 미화원 오브젝트의 이동을 제어할 수 있다. Thereafter, the processor 120 may generate a movement control block for controlling the movement of the cleaning agent object based on the voice recognition data and a command corresponding to the movement control block, and control the movement of the cleaning agent object in response to the movement control block. .

이후, 프로세서(120)는 이동 제어 블록을 나타내는 명령블록 이미지를 생성하고, 명령블록 이미지를 표시하기 위해 디스플레이(130)를 제어할 수 있다.Thereafter, the processor 120 may generate a command block image representing the movement control block and control the display 130 to display the command block image.

이때, 이동 제어 블록은 설정된 프로그래밍 언어 종류에 대응되는 이동 종류 제어 명령문, 이동 속도 제어 명령문 및 이동 반복수 제어 명령문 중 하나 이상을 포함할 수 있다.In this case, the movement control block may include at least one of a movement type control statement, a movement speed control statement, and a movement repetition number control statement corresponding to the set programming language type.

또한, 이동 종류 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 이동 종류 제어 명령어와 이동 종류 제어 변수를 포함하고, 이동 속도 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 이동 속도 제어 명령어와 이동 속도 제어 변수를 포함하고, 이동 반복수 제어 명령문은 설정된 프로그래밍 언어 종류에 대응되는 이동 반복수 제어 명령어와 이동 반복수 제어 변수를 포함할 수 있다.In addition, the movement type control statement includes a movement type control command and movement type control variable corresponding to the set programming language type, and the movement speed control statement includes a movement speed control command and movement speed control variable corresponding to the set programming language type. And, the movement repetition number control command may include a movement repetition number control command and movement repetition number control variable corresponding to the set programming language type.

프로세서(120)는 음성 인식 데이터에서 이동 종류 정보를 검색하고, 이동 종류 정보가 검색되면 검색된 이동 종류 정보에 대응하는 이동 종류 제어 명령문을 생성할 수 있다.The processor 120 may search for movement type information from the voice recognition data, and when the movement type information is retrieved, generate a movement type control command corresponding to the searched movement type information.

예를 들어, 음성 인식 데이터가 "오른쪽으로 빠르게 움직여"인 경우, 이동 종류 정보는 "오른쪽", 이동 종류 정보에 대응하는 이동 종류 제어 명령문은 "#move right"일 수 있다. 이를 위해, 이동 종류 정보에 해당하는 텍스트가 프로그래밍 언어 종류별 이동 종류 제어 명령문에 매칭되어 메모리(170)에 저장될 수 있다.For example, when the voice recognition data is “move quickly to the right”, the movement type information may be “right”, and the movement type control command corresponding to the movement type information may be “#move right”. To this end, the text corresponding to the movement type information may be stored in the memory 170 by matching the movement type control command for each programming language type.

한편, 이동 제어 블록이 이동 속도 제어 명령문을 포함하는 경우, 프로세서(120)는, 음성 인식 데이터에 이동 속도 정보가 포함된 경우, 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다.Meanwhile, when the movement control block includes a movement speed control command, the processor 120 may generate a movement speed control command corresponding to the movement speed information when the movement speed information is included in the voice recognition data.

반면에, 음성 인식 데이터에 이동 속도 정보가 포함되지 않은 경우, 프로세서(120)는, 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 음절 간격 정보에 대응하여 이동 속도 정보를 생성하고, 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다. On the other hand, when the movement speed information is not included in the voice recognition data, the processor 120 generates syllable spacing information based on the voice recognition data, generates movement speed information in response to the syllable spacing information, and generates the generated A movement speed control statement corresponding to the movement speed information may be generated.

구체적으로, 프로세서(120)는 음성 인식 데이터에서 이동 속도 정보를 검색하고, 이동 속도 정보가 검색되면 검색된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다. 예를 들어, 음성 인식 데이터가 "오른쪽으로 빠르게 움직여"인 경우, 이동 속도 정보는 "빠르게", 이동 속도 정보에 대응하는 이동 종류 제어 명령문은 "#speed up"일 수 있다.Specifically, the processor 120 may search for movement speed information from the voice recognition data, and when the movement speed information is retrieved, generate a movement speed control command corresponding to the searched movement speed information. For example, when the voice recognition data is "move fast to the right", the movement speed information may be "fast", and the movement type control command corresponding to the movement speed information may be "#speed up".

이를 위해, 이동 속도 정보에 해당하는 텍스트가 프로그래밍 언어 종류별 이동 속도 제어 명령문)에 매칭되어 메모리(170)에 저장될 수 있다.To this end, the text corresponding to the movement speed information may be matched with the movement speed control command for each programming language type) and stored in the memory 170 .

반대로, 프로세서(120)는 음성 인식 데이터에서 이동 속도 정보가 검색되지 않으면, 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 음절 간격 정보에 대응하여 이동 속도 정보를 생성하고, 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성할 수 있다.Conversely, if the movement speed information is not found in the voice recognition data, the processor 120 generates syllable spacing information based on the voice recognition data, generates movement speed information in response to the syllable spacing information, and generates movement speed information It is possible to generate a movement speed control statement corresponding to .

구체적으로, 프로세서(120)는 음성 인식 데이터에 포함된 음절 중에서 어느 하나의 음절의 종료 시점과 어느 하나의 음절의 다음 음절의 시작 시점 간에 제1 시간차를 산출하고, 복수의 제1 시간차의 평균 시간차를 음절 간격 정보로 생성할 수 있다.Specifically, the processor 120 calculates a first time difference between the end time of one syllable and the start time of the next syllable of any one syllable among the syllables included in the voice recognition data, and the average time difference of the plurality of first time differences can be generated as syllable spacing information.

이후, 프로세서(120)는 기준 시간차 대비 음절 간격 정보가 나타내는 평균 시간차의 시간차 비율을 산출하고, 기본 이동 속도에 시간차 비율을 적용하여 이동 속도 정보로 생성할 수 있다.Thereafter, the processor 120 may calculate a time difference ratio of the average time difference indicated by the syllable interval information compared to the reference time difference, and may generate the movement speed information by applying the time difference ratio to the basic movement speed.

예를 들어, 프로세서(120)는 평균 시간차가 "12msec"이고, 기준 시간차가 "10msec"이며, 기본 이동 속도가 "1배속"인 경우, 시간차 비율을 "120%"로 산출하고, 기본 이동 속도 "1배속"에 시간차 비율 "120%"를 적용하여 이동 속도 정보를 "1.2배속"으로 생성할 수 있다.For example, when the average time difference is "12 msec", the reference time difference is "10 msec", and the basic movement speed is "1x speed", the processor 120 calculates the time difference ratio as "120%", and the basic movement speed By applying the time difference ratio "120%" to "1x speed", it is possible to generate movement speed information at "1.2x speed".

한편, 이동 제어 블록이 이동 반복수 제어 명령문을 포함하는 경우, 프로세서(120)는, 음성 인식 데이터에 이동 반복수 정보가 포함된 경우, 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다.On the other hand, when the movement control block includes a movement repetition number control command, the processor 120 generates a movement repetition number control command corresponding to the movement repetition number information when the voice recognition data includes movement repetition number information. can

반면에, 음성 인식 데이터에 이동 반복수 정보가 포함되지 않은 경우, 프로세서(120)는 음성 신호에 기초하여 신호 세기 정보를 생성하고, 신호 세기 정보에 대응하여 이동 반복수 정보를 생성하고, 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다.On the other hand, when the movement repetition number information is not included in the voice recognition data, the processor 120 generates signal strength information based on the voice signal, generates movement repetition number information in response to the signal strength information, and generates the generated A movement repetition number control statement corresponding to the movement repetition number information may be generated.

구체적으로, 한편, 프로세서(120)는 음성 인식 데이터에서 이동 반복수 정보를 검색하고, 이동 반복수 정보가 검색되면 검색된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다. 예를 들어, 음성 인식 데이터가 "쓰레기통부터 쓰레기까지 두번 왕복해"인 경우, 이동 반복수 정보는 "두번", 이동 반복수 정보에 대응하는 이동 종류 제어 명령문은 "#two"일 수 있다.Specifically, the processor 120 may search for movement repetition number information from the voice recognition data, and when the movement repetition number information is retrieved, generate a movement repetition number control command corresponding to the searched movement repetition number information. For example, when the voice recognition data is "Two round trips from the trash can to the garbage", the movement repetition number information may be "twice", and the movement type control command corresponding to the movement repetition number information may be "#two".

이를 위해, 이동 반복수 정보에 해당하는 텍스트가 프로그래밍 언어 종류별 이동 반복수 제어 명령문에 매칭되어 메모리(170)에 저장될 수 있다.To this end, the text corresponding to the movement repetition number information may be stored in the memory 170 by matching the movement repetition number control command for each programming language type.

반대로, 프로세서(120)는 음성 인식 데이터에서 이동 반복수 정보 검색되지 않으면, 음성 신호에 기초하여 신호 세기 정보를 생성하고, 신호 세기 정보에 대응하여 이동 반복수 정보를 생성하고, 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성할 수 있다.Conversely, if the movement repetition number information is not retrieved from the voice recognition data, the processor 120 generates signal strength information based on the voice signal, generates movement repetition number information in response to the signal strength information, and generates the movement repetition number information. A movement repetition number control statement corresponding to the information may be generated.

구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 신호 세기 중에서 최대 신호 세기를 신호 세기 정보로 생성할 수 있다.Specifically, the processor 120 may generate the maximum signal strength among signal strengths according to time of the voice signal as signal strength information.

이후, 프로세서(120)는 기준 신호 세기 대비 신호 세기 정보가 나타내는 최대 신호 세기의 신호 세기 비율을 산출하고, 기본 이동 반복수에 신호 세기 비율을 적용하여 이동 반복수 정보로 생성할 수 있다.Thereafter, the processor 120 may calculate the signal strength ratio of the maximum signal strength indicated by the signal strength information to the reference signal strength, and may generate the movement repetition number information by applying the signal strength ratio to the basic movement repetition number.

예를 들어, 프로세서(120)는 최대 신호 세기가 "200DB"이고, 기준 신호 세기가 "100DB"이며, 기본 이동 반복수가 "1회"인 경우, 신호 세기 비율을 "200%"로 산출하고, 기본 이동 반복수 "1회"에 신호 세기 비율 "200%"를 적용하여 이동 반복수 정보를 "2회"로 생성할 수 있다. 이때, 이동 반복수 정보는 반올림되어 자연수로 생성될 수 있다.For example, the processor 120 calculates the signal strength ratio as "200%" when the maximum signal strength is "200DB", the reference signal strength is "100DB", and the basic movement repetition number is "one time", By applying the signal strength ratio "200%" to the basic movement repetition number "one time", it is possible to generate movement repetition number information as "2 times". In this case, the movement repetition number information may be rounded to generate a natural number.

한편, 프로세서(120)는 음성 신호에 기초하여 사용자의 사용자 특성 정보를 생성하고, 사용자 특성 정보에 대응하여 이동 제어 블록의 프로그래밍 언어 종류를 설정할 수 있다.Meanwhile, the processor 120 may generate user characteristic information of the user based on the voice signal and set the programming language type of the movement control block in response to the user characteristic information.

여기서, 사용자 특성 정보는 사용자 성별 정보 및 사용자 연령 정보를 포함할 수 있다.Here, the user characteristic information may include user gender information and user age information.

구체적으로, 프로세서(120)는 음성 신호의 시간에 따른 주파수로부터 평균 주파수를 산출하고, 음성 주파수 별로 사용자 연령 정보가 매핑된 주파수-사용자 특성 테이블로부터 평균 주파수에 대응되는 사용자의 사용자 연령 정보를 독출할 수 있다.Specifically, the processor 120 calculates the average frequency from the frequency according to the time of the voice signal, and reads the user age information of the user corresponding to the average frequency from the frequency-user characteristic table to which the user age information is mapped for each voice frequency. can

한편, 본 발명의 다양한 실시예에 따라, 이동 제어 블록은 다양한 명령문을 포함할 수 있음은 물론이다. 일 실시예로, 프로세서(120)는 입력된 음성의 주파수에 따라 특정 동작을 수행하도록 오브젝트를 제어할 수 있다. 예를 들어 입력된 음성의 주파수가 기 설정된 값 미만(예를 들어 60헤르츠 미만)인 경우, 프로세서(120)는 미화원 오브젝트가 쓰레기통으로 들어가는 동작을 수행하도록 오브젝트를 제어할 수 있다. 또는, 입력된 주파수가 60헤르츠 초과인 경우, 프로세서(120)는 디스플레이(130)에 표시된 복수의 미화원 오브젝트가 쓰레기통에서 뛰쳐나오는 동작을 수행하도록 오브젝트를 제어할 수 있다. Meanwhile, according to various embodiments of the present invention, it goes without saying that the movement control block may include various statements. In an embodiment, the processor 120 may control the object to perform a specific operation according to the frequency of the input voice. For example, when the frequency of the input voice is less than a preset value (for example, less than 60 hertz), the processor 120 may control the object to perform an operation to put the cleaning agent object into the trash. Alternatively, when the input frequency exceeds 60 hertz, the processor 120 may control the objects displayed on the display 130 to jump out of the trash can.

한편, 본 발명의 또 다른 실시예에 따라, 전자 장치(100)는 디스플레이(130)에 표시된 배경 영상의 초점 거리에 따라, 미화원 오브젝트를 다르게 표시할 수 있다. 예를 들어, 디스플레이(130)에 표시된 스마트 쓰레기통(200)에 카메라(110)의 초점이 맞춰진 경우, 프로세서(120)는 오브젝트를 선명하게 표시하고, 디스플레이(130)에 표시된 스마트 쓰레기통(200)이 아닌 다른 영역에 카메라(110)의 초점이 맞춰진 경우, 프로세서(120)는 미화원 오브젝트를 흐릿하게 표시할 수 있다.Meanwhile, according to another embodiment of the present invention, the electronic device 100 may differently display the beautifying agent object according to the focal length of the background image displayed on the display 130 . For example, when the camera 110 is focused on the smart trash can 200 displayed on the display 130, the processor 120 clearly displays the object, and the smart trash can 200 displayed on the display 130 is When the camera 110 is focused on an area other than this, the processor 120 may display the object of the beauty salon in a blurry manner.

한편, 본 발명의 다양한 실시예에 따라, 미화원 오브젝트가 쓰레기 오브젝트에 도착한 경우, 미화원 오브젝트는 쓰레기를 청소하는 모션을 취할 수 있다. Meanwhile, according to various embodiments of the present disclosure, when the cleaning agent object arrives at the garbage object, the cleaning agent object may take a motion to clean the garbage.

한편, 본 발명의 다양한 실시예에 따라, 미화원 오브젝트가 쓰레기 오브젝트에 도착하여 머무르는 동안, 쓰레기 오브젝트에 대응되는 실제 쓰레기가 이동하는 경우, 미화원 오브젝트는 쓰레기 오브젝트의 이동 방향으로 함께 이동할 수 있다. 이 경우, 미화원 오브젝트는 쓰레기를 청소하는 모션을 취할 수 있음은 물론이다.Meanwhile, according to various embodiments of the present disclosure, if actual garbage corresponding to the garbage object moves while the cleaning agent object arrives at the garbage object and stays there, the cleaning agent object may move together in the moving direction of the garbage object. In this case, it goes without saying that the sanitation worker object may take a motion to clean the garbage.

본 발명에 따른 미화원 오브젝트를 표시하는 증강 현실 영상은, 어린이 교육용 컨텐츠로 이용될 수 있다. 증강현실로 표시된 미화원 오브젝트가 실제로 쓰레기를 치우지는 못하지만, 미화원 오브젝트를 조작하고, 조작된 미화원 오브젝트가 쓰레기를 치우는 행동을 디스플레이(130)에 표시함으로써, 본 발명에 따른 시스템은 편리하게 쓰레기를 치울 수 있을 뿐 아니라, 어린이 교육용 컨텐츠 또한 제공할 수 있다.The augmented reality image displaying the cleaning agent object according to the present invention may be used as content for children's education. Although the cleaning agent object displayed in augmented reality cannot actually remove the garbage, by manipulating the cleaning agent object and displaying the operation of the operated cleaning agent object to remove the garbage on the display 130, the system according to the present invention can remove garbage conveniently Not only that, but also content for children's education can be provided.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software components, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, including C, C++ , may be implemented in a programming or scripting language such as Java, assembler, or the like. Functional aspects may be implemented in an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, the embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains know that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100 : 전자 장치
200 : 스마트 쓰레기통
100: electronic device
200: smart trash can

Claims (13)

전자 장치 및 스마트 쓰레기통을 포함하는 시스템의 제어 방법에 있어서,
상기 스마트 쓰레기통은, 본체, 태양광 충전 배터리, 태양광 패널, 초음파 센서, 서보모터, 상기 본체와 상기 서보모터를 연결하는 연결부 및 제어부를 포함하고,
상기 초음파 센서가, 본체 주변의 물체를 감지하는 단계;
상기 서보모터가, 상기 초음파 센서로부터 상기 본체 주변의 물체를 감지하면, 상기 본체의 뚜껑을 개방하도록 동작하는 단계;
상기 제어부가, 상기 뚜껑이 개폐된 후, 기 설정된 시간동안 서보모터를 유지하기 위한 제어신호를 상기 서보모터로 전송하는 단계; 및
상기 제어부가, 상기 기 설정된 시간이 경과하면, 상기 서보모터를 제어하여 상기 본체의 뚜껑을 폐쇄하는 단계; 를 포함하는 제어 방법.
A method of controlling a system including an electronic device and a smart trash can, the method comprising:
The smart trash bin includes a main body, a solar rechargeable battery, a solar panel, an ultrasonic sensor, a servo motor, a connection unit and a control unit for connecting the main body and the servo motor,
detecting, by the ultrasonic sensor, an object around the body;
when the servomotor detects an object around the main body from the ultrasonic sensor, operating to open the lid of the main body;
transmitting, by the control unit, a control signal for maintaining the servomotor for a preset time to the servomotor after the lid is opened and closed; and
When the preset time elapses, the control unit controlling the servomotor to close the lid of the main body; A control method comprising a.
제1항에 있어서,
상기 스마트 쓰레기통은, 상기 태양광 충전 배터리 및 상기 태양광 패널로부터 전원을 공급받는 것을 특징으로 하는 제어 방법.
According to claim 1,
The smart trash bin is a control method, characterized in that receiving power from the solar rechargeable battery and the solar panel.
제1항에 있어서,
상기 제어부는, 아두이노 보드로 구성되고, 상기 서보모터 및 상기 초음파 센서를 제어하는 것을 특징으로 하는 제어 방법.
According to claim 1,
The control unit is composed of an Arduino board, the control method, characterized in that for controlling the servomotor and the ultrasonic sensor.
제1항에 있어서,
상기 전자 장치는, 카메라, 메모리, 디스플레이 및 프로세서를 포함하고,
상기 스마트 쓰레기통은 QR코드를 포함하고,
상기 제어 방법은,
상기 카메라가, QR 코드를 포함하는 스마트 쓰레기통 및 주변 영역을 포함하는 영상을 획득하는 단계;
상기 프로세서가, 상기 QR 코드 이미지를 획득하는 단계;
상기 프로세서가, 상기 메모리로부터 기 저장된 QR 코드의 크기 정보를 획득하는 단계;
상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 QR 코드의 이미지 정보를 바탕으로, 상기 디스플레이에 표시되는 상기 스마트 쓰레기통의 크기 및 시선 정보를 획득하는 단계;
상기 프로세서가, 상기 디스플레이에 표시되는 상기 스마트 쓰레기통의 크기 및 시선 정보를 바탕으로 상기 QR 코드에 대응되는 오브젝트에 대한 정보를 획득하는 단계;
상기 프로세서가, 상기 디스플레이에 표시되는 상기 스마트 쓰레기통의 크기 및 시선 정보를 바탕으로 상기 오브젝트가 표시될 영역을 획득하는 단계; 및
상기 디스플레이가, 상기 획득된 오브젝트를 상기 영역에 표시하는 단계; 를 포함하는 제어 방법.
According to claim 1,
The electronic device includes a camera, a memory, a display and a processor,
The smart trash bin includes a QR code,
The control method is
acquiring, by the camera, an image including a smart trash bin including a QR code and a surrounding area;
obtaining, by the processor, the QR code image;
obtaining, by the processor, size information of a pre-stored QR code from the memory;
obtaining, by the processor, size information and gaze information of the smart trash bin displayed on the display based on the pre-stored size information of the QR code and image information of the QR code;
obtaining, by the processor, information on the object corresponding to the QR code based on the size and gaze information of the smart trash bin displayed on the display;
obtaining, by the processor, an area in which the object is to be displayed based on the size and gaze information of the smart trash bin displayed on the display; and
displaying, by the display, the obtained object on the area; A control method comprising a.
제4항에 있어서,
상기 오브젝트가 미화원 오브젝트인 경우, 상기 표시하는 단계는,
상기 획득된 영역 내부에서 상기 미화원 오브젝트를 이동시키는 단계; 및
상기 미화원 오브젝트를 제어하기 위한 사용자 명령이 입력되면, 상기 사용자 명령에 대응되게 상기 미화원 오브젝트를 이동시키는 단계; 를 포함하고,
상기 제어 방법은,
상기 전자 장치가, 상기 스마트 쓰레기통 주변의 쓰레기 정보를 획득하는 단계;
상기 사용자 명령이 상기 스마트 쓰레기통 주변의 쓰레기 정보로 상기 미화원 오브젝트를 이동시키는 명령인 경우, 상기 전자 장치가, 상기 디스플레이에 표시된 상기 쓰레기 정보에 대응되는 쓰레기 오브젝트로 상기 미화원 오브젝트를 이동시키는 단계; 를 포함하는 제어 방법.
5. The method of claim 4,
When the object is a beautifying agent object, the displaying step includes:
moving the beauty salon object within the acquired area; and
when a user command for controlling the beauty salon object is input, moving the cleaning agent object to correspond to the user command; including,
The control method is
obtaining, by the electronic device, information about garbage around the smart trash bin;
moving, by the electronic device, the cleaning agent object to a garbage object corresponding to the garbage information displayed on the display when the user command is a command to move the cleaning agent object to the garbage information around the smart trash bin; A control method comprising a.
제5항에 있어서,
상기 미화원 오브젝트를 이동시키는 단계는,
상기 전자 장치의 사용자로부터 음성 신호를 입력 받아 음성 인식 데이터를 생성하는 단계;
상기 음성 인식 데이터에 기초하여 상기 미화원 오브젝트의 이동을 제어하는 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계;
상기 이동 제어 블록에 대응하여 상기 미화원 오브젝트의 이동을 제어하는 단계;
상기 이동 제어 블록을 나타내는 명령블록 이미지를 생성하는 단계; 및
상기 명령블록 이미지를 표시하는 단계; 를 포함하는 제어 방법.
6. The method of claim 5,
The step of moving the beautifying agent object comprises:
generating voice recognition data by receiving a voice signal from a user of the electronic device;
generating a movement control block for controlling movement of the cleaning agent object and a command corresponding to the movement control block based on the voice recognition data;
controlling the movement of the cleaning agent object in response to the movement control block;
generating a command block image representing the movement control block; and
displaying the command block image; A control method comprising a.
제6항에 있어서,
상기 이동 제어 블록이 이동 속도 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는,
상기 음성 인식 데이터에 이동 속도 정보가 포함된 경우, 상기 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 및
상기 음성 인식 데이터에 이동 속도 정보가 포함되지 않은 경우 경우, 상기 음성 인식 데이터에 기초하여 음절 간격 정보를 생성하고, 상기 음절 간격 정보에 대응하여 상기 이동 속도 정보를 생성하고, 상기 생성된 이동 속도 정보에 대응하는 이동 속도 제어 명령문을 생성하는 단계; 를 포함하고,
상기 이동 제어 블록이 이동 반복수 제어 명령문을 포함하는 경우, 상기 이동 제어 블록 및 상기 이동 제어 블록에 대응되는 명령문을 생성하는 단계는,
상기 음성 인식 데이터에 이동 반복수 정보가 포함된 경우, 상기 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계; 및
상기 음성 인식 데이터에 이동 반복수 정보가 포함되지 않은 경우, 상기 음성 신호에 기초하여 신호 세기 정보를 생성하고, 상기 신호 세기 정보에 대응하여 상기 이동 반복수 정보를 생성하고, 상기 생성된 이동 반복수 정보에 대응하는 이동 반복수 제어 명령문을 생성하는 단계;를 포함하는 제어 방법.
7. The method of claim 6,
When the movement control block includes a movement speed control statement, generating the movement control block and a statement corresponding to the movement control block includes:
generating a movement speed control command corresponding to the movement speed information when the voice recognition data includes movement speed information; and
When the movement speed information is not included in the voice recognition data, syllable spacing information is generated based on the voice recognition data, the movement speed information is generated in response to the syllable spacing information, and the generated movement speed information generating a movement speed control statement corresponding to ; including,
When the movement control block includes a movement repetition number control statement, generating the movement control block and a statement corresponding to the movement control block includes:
generating a movement repetition number control command corresponding to the movement repetition number information when the speech recognition data includes movement repetition number information; and
When the movement repetition number information is not included in the voice recognition data, signal strength information is generated based on the voice signal, the movement repetition number information is generated in response to the signal strength information, and the generated movement repetition number information is generated. A control method comprising a; generating a movement repetition number control statement corresponding to the information.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.
a memory storing one or more instructions; and
a processor executing the one or more instructions stored in the memory;
The processor by executing the one or more instructions,
An apparatus for performing the method of claim 1 .
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program stored in a computer-readable recording medium in combination with a computer, which is hardware, to perform the method of claim 1 . 스마트 쓰레기통의 제어 방법에 있어서,
상기 스마트 쓰레기통이, 본체 주변의 물체를 감지하는 단계;
상기 스마트 쓰레기통이, 상기 초음파 센서로부터 상기 본체 주변의 물체를 감지하면, 상기 본체의 뚜껑을 개방하도록 동작하는 단계;
상기 스마트 쓰레기통이, 상기 뚜껑이 개폐된 후, 기 설정된 시간동안 서보모터를 유지하기 위한 제어신호를 상기 서보모터로 전송하는 단계; 및
상기 스마트 쓰레기통이, 상기 기 설정된 시간이 경과하면, 상기 서보모터를 제어하여 상기 본체의 뚜껑을 폐쇄하는 단계; 를 포함하는 제어 방법.
In the control method of the smart trash can,
detecting, by the smart trash can, an object around the main body;
when the smart trash bin detects an object around the body from the ultrasonic sensor, operating to open the lid of the body;
transmitting, by the smart trash bin, a control signal for maintaining the servomotor for a preset time to the servomotor after the lid is opened and closed; and
closing the lid of the main body by controlling the servomotor when the preset time has elapsed, by the smart trash bin; A control method comprising a.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제11 항의 방법을 수행하는, 장치.
a memory storing one or more instructions; and
a processor executing the one or more instructions stored in the memory;
The processor by executing the one or more instructions,
An apparatus for performing the method of claim 11 .
하드웨어인 컴퓨터와 결합되어, 제11 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.A computer program stored in a computer-readable recording medium in combination with a computer, which is hardware, to perform the method of claim 11. 카메라, 메모리, 디스플레이 및 프로세서를 포함하는 전자 장치의 제어 방법에 있어서,
상기 카메라가, QR 코드를 포함하는 스마트 쓰레기통 및 주변 영역을 포함하는 영상을 획득하는 단계;
상기 프로세서가, 상기 QR 코드 이미지를 획득하는 단계;
상기 프로세서가, 상기 메모리로부터 기 저장된 QR 코드의 크기 정보를 획득하는 단계;
상기 프로세서가, 상기 기 저장된 QR 코드의 크기 정보 및 상기 QR 코드의 이미지 정보를 바탕으로, 상기 QR 코드에 대응되는 오브젝트에 대한 정보를 획득하는 단계;
상기 디스플레이가, 상기 획득된 오브젝트에 대한 정보에 대응되는 오브젝트를 표시하는 단계; 를 포함하는 제어 방법.
A method for controlling an electronic device including a camera, a memory, a display and a processor, the method comprising:
acquiring, by the camera, an image including a smart trash bin including a QR code and a surrounding area;
obtaining, by the processor, the QR code image;
obtaining, by the processor, size information of a pre-stored QR code from the memory;
obtaining, by the processor, information on an object corresponding to the QR code based on the pre-stored size information of the QR code and image information of the QR code;
displaying, by the display, an object corresponding to the obtained information on the object; A control method comprising a.
KR1020200135784A 2020-10-20 2020-10-20 Smart trash bin control method, device and program KR102348584B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200135784A KR102348584B1 (en) 2020-10-20 2020-10-20 Smart trash bin control method, device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200135784A KR102348584B1 (en) 2020-10-20 2020-10-20 Smart trash bin control method, device and program

Publications (1)

Publication Number Publication Date
KR102348584B1 true KR102348584B1 (en) 2022-01-07

Family

ID=79355111

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200135784A KR102348584B1 (en) 2020-10-20 2020-10-20 Smart trash bin control method, device and program

Country Status (1)

Country Link
KR (1) KR102348584B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010084902A (en) * 2001-03-06 2001-09-07 손태순 A wastebasket
KR102047180B1 (en) 2018-02-21 2019-11-20 경남대학교 산학협력단 Automatic Opening-Shutting type smart wastebasket
KR102214338B1 (en) * 2020-05-25 2021-02-10 조광희 Control method, device and program of electronic device for augmented reality display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010084902A (en) * 2001-03-06 2001-09-07 손태순 A wastebasket
KR102047180B1 (en) 2018-02-21 2019-11-20 경남대학교 산학협력단 Automatic Opening-Shutting type smart wastebasket
KR102214338B1 (en) * 2020-05-25 2021-02-10 조광희 Control method, device and program of electronic device for augmented reality display

Similar Documents

Publication Publication Date Title
US20230205151A1 (en) Systems and methods of gestural interaction in a pervasive computing environment
US10532003B2 (en) Guide robot and method and system for operating the same
US20200110928A1 (en) System and method for controlling appliances using motion gestures
CN114391163A (en) Gesture detection system and method
JP2021522564A (en) Systems and methods for detecting human gaze and gestures in an unconstrained environment
US20180048482A1 (en) Control system and control processing method and apparatus
CN106406119A (en) Service robot based on voice interaction, cloud technology and integrated intelligent home monitoring
JP2003285288A (en) Charging system, charge control method, robot, charger, and charge control program and recording medium
CN111163906A (en) Mobile electronic device and operation method thereof
JP7375748B2 (en) Information processing device, information processing method, and program
TWI691864B (en) Intelligent robot
CN110737335B (en) Interaction method and device of robot, electronic equipment and storage medium
US20230053276A1 (en) Autonomously motile device with speech commands
CN110103241B (en) Lighting robot, lighting robot control method and control device
KR102348584B1 (en) Smart trash bin control method, device and program
KR102171428B1 (en) Dancing Robot that learns the relationship between dance and music
US20180319014A1 (en) Robot orchestration architecture
JP2007156689A (en) Light source position detection device and face recognition device using the same and self-propelled robot
US20230195401A1 (en) Information processing apparatus and information processing method
JP2019220145A (en) Operation terminal, voice input method, and program
KR20210023367A (en) Robot and method for controlling same
US20160073087A1 (en) Augmenting a digital image with distance data derived based on acoustic range information
KR20220111821A (en) Control method of electronic device based on augmented reality display
US20180307302A1 (en) Electronic device and method for executing interactive functions
KR102214338B1 (en) Control method, device and program of electronic device for augmented reality display

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant