KR20210048385A - Electronic device and method for controlling the electronic device thereof - Google Patents

Electronic device and method for controlling the electronic device thereof Download PDF

Info

Publication number
KR20210048385A
KR20210048385A KR1020190160075A KR20190160075A KR20210048385A KR 20210048385 A KR20210048385 A KR 20210048385A KR 1020190160075 A KR1020190160075 A KR 1020190160075A KR 20190160075 A KR20190160075 A KR 20190160075A KR 20210048385 A KR20210048385 A KR 20210048385A
Authority
KR
South Korea
Prior art keywords
object recognition
recognition model
electronic device
level
operation mode
Prior art date
Application number
KR1020190160075A
Other languages
Korean (ko)
Inventor
김정욱
김재덕
송주용
임준호
신재욱
임애란
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/035,986 priority Critical patent/US11651621B2/en
Priority to EP20879911.4A priority patent/EP3973375A4/en
Priority to CN202080072583.2A priority patent/CN114586009A/en
Priority to PCT/KR2020/013711 priority patent/WO2021080220A1/en
Publication of KR20210048385A publication Critical patent/KR20210048385A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • G06K9/00221
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/7625Hierarchical techniques, i.e. dividing or merging patterns to obtain a tree-like representation; Dendograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

Provided are an electronic device and a control method thereof. In accordance with the present invention, the electronic device comprises: a camera; a non-volatile memory which stores one or more instructions and a plurality of object recognition models; a volatile memory; and a processor connected to the non-volatile memory, the volatile memory, and the camera to control the electronic device. The processor is able to execute the one or more instructions, load one or more object recognition models having a hierarchy structure corresponding to a determined operation mode among the plurality of object recognition models on the volatile memory when the operation mode of the electronic device is determined, acquire information on the object by entering an object image acquired by the camera into the loaded object recognition models, and determine the operation of the electronic device based on the information on the object. The present invention aims to provide an electronic device and a control method thereof, which are able to reduce memory consumption.

Description

전자 장치 및 이의 제어 방법{ELECTRONIC DEVICE AND METHOD FOR CONTROLLING THE ELECTRONIC DEVICE THEREOF}Electronic device and its control method {ELECTRONIC DEVICE AND METHOD FOR CONTROLLING THE ELECTRONIC DEVICE THEREOF}

본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로서, 더욱 상세하게는 전자 장치의 동작 모드에 따라 다양한 방식으로 구성 할 수 있는 계층 구조를 가지는 객체 인식 모델에 관한 것이다.The present disclosure relates to an electronic device and a control method thereof, and more particularly, to an object recognition model having a hierarchical structure that can be configured in various ways according to an operation mode of the electronic device.

최근 객체 인식 기술을 활용하는 전자 장치의 기능이 고도화됨에 따라, 전자 장치가 인식해야 할 객체의 개수가 증가하고 있다. 이에 따라, 인공 지능 모델을 활용한 다양한 객체 인식 기술이 연구 및 개발되고 있다.BACKGROUND ART As the functions of electronic devices using object recognition technology have recently been advanced, the number of objects to be recognized by the electronic device is increasing. Accordingly, various object recognition technologies using artificial intelligence models are being researched and developed.

다만, 기존에는 하나의 인공 지능 모델을 통해 객체를 인식하는 기술이 활용되었는 바, 인식해야할 객체의 수가 증가할수록 필요한 메모리의 크기 및 연산 소모량은 계속적으로 증가되었다. 또한, 기존의 기술의 경우, 객체 인식을 수행할 때, 상황에 맞게 특정 모델만을 메모리 상에 로딩하는 것이 아니라 전체 인공 지능 모델을 메모리 상에 로딩하는 바, 메모리가 비효율적으로 사용된다는 단점이 존재하였다.However, in the past, a technology for recognizing an object through a single artificial intelligence model has been used. As the number of objects to be recognized increases, the required memory size and computational consumption continue to increase. In addition, in the case of the existing technology, when performing object recognition, not only a specific model according to the situation is loaded onto the memory, but the entire artificial intelligence model is loaded onto the memory, so there is a disadvantage that the memory is used inefficiently. .

그 결과, 메모리, 연산 능력 및 통신 능력에 한계가 있는 사용자 장치의 객체 인식 능력을 하나의 인공 지능 모델 자체의 기능 향상 만으로는 해결하기에 한계가 존재하였다.As a result, there is a limit to solving the object recognition ability of a user device, which has limitations in memory, computational capability, and communication capability, only by improving the function of one artificial intelligence model itself.

본 개시는 상술한 필요성에 따라 안출된 것으로서, 본 개시는 전자 장치에서 결정된 동작 모드에 대응되는 계층 구조를 가지는 적어도 하나 이상의 인식 모델들이 다양한 방식으로 선별 및 조합하여 휘발성 메모리에 로딩되고, 상기 로딩된 선별 및 조합된 계층 구조의 인식 모델을 통해 수행될 동작을 결정하는 전자 장치 및 이의 제어 방법을 제공함에 있다The present disclosure was devised according to the above-described necessity, and the present disclosure is that at least one recognition model having a hierarchical structure corresponding to an operation mode determined in an electronic device is selected and combined in various ways and loaded into a volatile memory, and the loaded It is to provide an electronic device and a control method thereof that determine an operation to be performed through a selected and combined hierarchical recognition model.

상술한 목적을 달성하기 위한 본 개시의 일 실시예에 따른 전자 장치에 있어서, 카메라, 적어도 하나의 인스트럭션(Instruction) 및 복수의 객체 인식 모델을 저장하는 비휘발성 메모리, 휘발성 메모리 및 상기 비휘발성 메모리, 상기 휘발성 메모리 및 상기 카메라와 연결되어 상기 전자 장치를 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함으로써 상기 전자 장치의 동작 모드가 결정되면, 상기 복수의 객체 인식 모델 중 상기 결정된 동작 모드에 대응되는 계층 구조(hierarchy structure)를 가지는 적어도 하나의 객체 인식 모델을 상기 휘발성 메모리에 로딩하고, 상기 카메라를 통해 획득한 객체 이미지를 상기 로딩된 객체 인식 모델에 입력하여 상기 객체에 대한 정보를 획득하고, 상기 객체에 대한 정보를 바탕으로 상기 전자 장치의 동작을 결정할 수 있다.In an electronic device according to an embodiment of the present disclosure for achieving the above object, a camera, a nonvolatile memory for storing at least one instruction and a plurality of object recognition models, a volatile memory, and the nonvolatile memory, And a processor connected to the volatile memory and the camera to control the electronic device, the processor, when the operation mode of the electronic device is determined by executing the at least one instruction, the plurality of object recognition models At least one object recognition model having a hierarchical structure corresponding to the determined operation mode is loaded into the volatile memory, and the object image obtained through the camera is input to the loaded object recognition model, Information may be obtained, and an operation of the electronic device may be determined based on the information on the object.

한편, 상술한 목적을 달성하기 위한 실시 예에 따른 복수의 객체 인식 모델을 저장하는 비휘발성 메모리 및 휘발성 메모리를 저장하는 전자 장치의 제어 방법에 있어서, 상기 전자 장치의 동작 모드가 결정되면, 상기 복수의 객체 인식 모델 중 상기 결정된 동작 모드에 대응되는 계층 구조를 가지는 적어도 하나의 객체 인식 모델을 상기 휘발성 메모리에 로딩하는 단계, 카메라를 통해 획득한 객체 이미지를 상기 로딩된 객체 인식 모델에 입력하여 상기 객체에 대한 정보를 획득하는 단계 및 상기 객체에 대한 정보를 바탕으로 상기 전자 장치의 동작을 결정하는 단계를 포함할 수 있다.Meanwhile, in a nonvolatile memory storing a plurality of object recognition models and a control method of an electronic device storing a volatile memory according to an embodiment for achieving the above object, when the operation mode of the electronic device is determined, the plurality of Loading at least one object recognition model having a hierarchical structure corresponding to the determined operation mode among object recognition models of, into the volatile memory, inputting an object image acquired through a camera into the loaded object recognition model, and the object It may include obtaining information on the object and determining an operation of the electronic device based on the information on the object.

본 개시의 일 실시예에 따른 인식 모델을 구성하는 방법에 있어서, 전자 장치는 요청된 동작 모드에 따른 레벨 정보를 식별하고, 비휘발성 메모리에 저장된 복수의 레벨을 갖는 계층화된 전체 모델 구조와 각 동작 모드에 대응되는 레벨 정보를 이용하여, 상기 전체 모델 구조 중 최상위 레벨부터 상기 식별된 레벨까지의 계층화된 모델 구조에 해당하는 인식 모델을 휘발성 메모리에 로딩하고, 상기 로딩된 인식 모델을 이용하여 상기 동작 모드를 수행할 수 있다.In a method of constructing a recognition model according to an embodiment of the present disclosure, an electronic device identifies level information according to a requested operation mode, and includes a layered overall model structure having a plurality of levels stored in a nonvolatile memory and each operation. Using level information corresponding to a mode, a recognition model corresponding to a hierarchical model structure from the highest level to the identified level among the entire model structures is loaded into a volatile memory, and the operation is performed using the loaded recognition model. Mode can be performed.

본 개시의 일 실시예에 따른 인식 모델을 구성하는 방법에 있어서, 전자 장치는 요청된 동작 모드에 대응되는 계층 구조 템플릿 정보 및 계층 구조의 구성 정보를 식별하고, 비휘발성 메모리에 저장된 복수개의 서로 다른 계층 구조 템플릿과, 복수개의 서브 모델 및 각 동작 모드에 대응되는 계층 구조의 구성 정보를 이용하여, 상기 식별된 계층 구조 템플릿 정보와 계층 구조의 구성 정보에 따라 특정 모델이 해당 계층 구조의 특정 레벨에 링크 되도록 구성된 계층화된 모델 구조에 해당하는 인식 모델을 휘발성 메모리에 로딩하고, 상기 로딩된 인식 모델을 이용하여 상기 동작 모드 수행할 수 있다.In a method of configuring a recognition model according to an embodiment of the present disclosure, an electronic device identifies hierarchical template information and hierarchical configuration information corresponding to a requested operation mode, and Using the hierarchical structure template, a plurality of sub-models, and the hierarchical configuration information corresponding to each operation mode, a specific model is at a specific level of the hierarchical structure according to the identified hierarchical template information and the configuration information of the hierarchical structure. A recognition model corresponding to a layered model structure configured to be linked may be loaded into a volatile memory, and the operation mode may be performed using the loaded recognition model.

본 개시의 일 실시예에 따른 인식 모델 구성하는 방법에 있어서, 전자 장치는 휘발성 메모리에 복수개의 레벨로 구성된 계층화된 인식 모델이 로딩되고, 각 레벨의 서브 모델은 입력 소스 데이터의 특징값을 추출하는 특징 추출부와 특징값을 특정 기준으로 분류하는 분류기로 구성되며, 상위 레벨 모델의 특징 추출부는 활성화되고 하위 레벨 모델의 특징 추출부는 비활성화하여, 상위 레벨의 서브 모델에서 출력한 추출값을 하위 레벨의 모델에서는 그대로 이용할 수 있다.In the method of constructing a recognition model according to an embodiment of the present disclosure, the electronic device is loaded with a layered recognition model composed of a plurality of levels in a volatile memory, and the sub-models of each level extract feature values of input source data. It consists of a feature extraction unit and a classifier that classifies the feature values according to a specific criterion.The feature extraction unit of the upper level model is activated and the feature extraction unit of the lower level model is deactivated, so that the extracted value output from the submodel at the higher level is It can be used as it is in the model.

본 개시의 일실시예에 따른 인식모델 구성하는 방법에 있어서, 전자 장치는 복수개의 레벨로 구성된 계층화된 인식 모델에 있어서 신규 클래스가 추가 되는 경우, 사용자 정의 또는 특징 유사도 비교 방식에 의해, 상기 신규 클래스가 추가될 특정 위치 레벨의 특정 서브 모델이 결정되고, 상기 결정된 서브 모델 및 상기 서브 모델과 연관되어 링크된 적어도 상위 레벨 및 최상위 레벨의 서브 모델을 업데이트할 수 있다.In a method of constructing a recognition model according to an embodiment of the present disclosure, when a new class is added in a layered recognition model composed of a plurality of levels, the new class may be defined by a user-defined or feature similarity comparison method. A specific sub-model of a specific location level to be added is determined, and the determined sub-model and at least a higher-level and a highest-level sub-model linked in association with the sub-model may be updated.

상술한 바와 같이 본 개시의 다양한 실시예에 의해, 전자 장치는 결정된 동작 모드에 대응되는 계층화된 객체 인식 모델만을 휘발성 메모리에 로딩하고, 로딩된 객체 인식 모델을 통해 객체에 대한 정보를 획득함으로써 전체 모델의 연산량 및 메모리 소모량을 감소시킬 수 있다.As described above, according to various embodiments of the present disclosure, the electronic device loads only the layered object recognition model corresponding to the determined operation mode into the volatile memory, and obtains information on the object through the loaded object recognition model. It is possible to reduce the amount of computation and memory consumption.

또한, 본 개시에 따른 전자 장치는 새로운 객체를 학습시키기 위해서 새로운 객체에 대응되는 객체 인식 모델과 연관된 모델만을 학습시킴으로써, 사용자는 인공 지능 모델이 적용된 객체 인식 기술을 보다 빠르고 효율적으로 학습시켜 활용할 수 있다.In addition, the electronic device according to the present disclosure learns only a model associated with an object recognition model corresponding to a new object in order to learn a new object, so that a user can learn and utilize an object recognition technology to which an artificial intelligence model is applied more quickly and efficiently. .

도 1a, 도 1b, 도 1c 및 도 1d는 본 개시의 일 실시예에 따른, 계층 구조를 가지는 객체 인식 모델을 휘발성 메모리에 로딩하는 전자 장치의 구성 및 동작을 설명하기 위한 도면,
도 2는 본 개시의 일 실시예에 따른, 전자 장치의 구성을 상세히 도시한 도면,
도 3a는 본 개시의 일 실시예에 따른, 객체 인식 모델의 구성 및 동작을 설명하기 위한 도면,
도 3b는 본 개시의 일 실시예에 따른, 계층 구조를 가지는 객체 인식 모델의 구성 및 동작을 설명하기 위한 도면,
도 4는 본 개시의 일 실시예에 따른, 전자 장치의 제어 방법을 설명하기 위한 순서도,
도 5는 본 개시의 일 실시예에 따른, 전자 장치의 동작 모드가 제1 동작 모드일 때, 전자 장치의 동작을 설명하기 위한 도면,
도 6은 본 개시의 일 실시예에 따른, 전자 장치의 동작 모드가 제2 동작 모드일 때, 전자 장치의 동작을 설명하기 위한 도면,
도 7은 본 개시의 일 실시예에 따른, 전자 장치의 동작 모드가 제3 동작 모드일 때, 전자 장치의 동작을 설명하기 위한 도면,
도 8은 본 개시의 일 실시예에 따른, 전자 장치의 동작 모드가 제1 동작 모드일 때, 전자 장치의 동작을 설명하기 위한 도면,
도 9는 본 개시의 일 실시예에 따른, 전자 장치의 동작 모드가 제2 동작 모드일 때, 전자 장치의 동작을 설명하기 위한 도면,
도 10은 본 개시의 일 실시예에 따른, 전자 장치의 동작 모드가 제3 동작 모드일 때, 전자 장치의 동작을 설명하기 위한 도면,
도 11은 본 개시의 일 실시예에 따른, 전자 장치의 학습 방법을 설명하기 위한 순서도,
도 12는 본 개시의 일 실시예에 따른, 전자 장치의 학습 방법을 설명하기 위한 순서도이다.
1A, 1B, 1C, and 1D are diagrams for explaining the configuration and operation of an electronic device for loading an object recognition model having a hierarchical structure into a volatile memory according to an embodiment of the present disclosure;
2 is a diagram illustrating in detail the configuration of an electronic device according to an embodiment of the present disclosure;
3A is a diagram for explaining the configuration and operation of an object recognition model according to an embodiment of the present disclosure;
3B is a diagram for explaining the configuration and operation of an object recognition model having a hierarchical structure according to an embodiment of the present disclosure;
4 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure;
5 is a diagram illustrating an operation of an electronic device when an operation mode of the electronic device is a first operation mode, according to an embodiment of the present disclosure;
6 is a diagram for explaining an operation of the electronic device when the operation mode of the electronic device is a second operation mode, according to an embodiment of the present disclosure;
7 is a diagram illustrating an operation of an electronic device when an operation mode of the electronic device is a third operation mode, according to an embodiment of the present disclosure;
8 is a diagram illustrating an operation of an electronic device when an operation mode of the electronic device is a first operation mode, according to an embodiment of the present disclosure;
9 is a diagram illustrating an operation of an electronic device when an operation mode of the electronic device is a second operation mode according to an embodiment of the present disclosure;
10 is a diagram illustrating an operation of an electronic device when an operation mode of the electronic device is a third operation mode, according to an embodiment of the present disclosure;
11 is a flowchart illustrating a learning method of an electronic device according to an embodiment of the present disclosure;
12 is a flowchart illustrating a learning method of an electronic device according to an embodiment of the present disclosure.

이하에서는 첨부한 도면을 참고하여 본 개시에 따른 실시 예에 대하여, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, embodiments according to the present disclosure will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present disclosure.

도 1a는 본 개시의 일 실시예에 따른, 계층 구조를 가지는 객체 인식 모델을 휘발성 메모리(130)에 로딩하는 전자 장치(100)의 구성 및 동작을 설명하기 위한 도면이다.1A is a diagram illustrating a configuration and operation of an electronic device 100 for loading an object recognition model having a hierarchical structure into a volatile memory 130 according to an embodiment of the present disclosure.

도 1a에 도시된 바와 같이, 본 개시의 일 실시 예에 따른, 전자 장치(100)는 카메라(110), 비휘발성 메모리(120), 휘발성 메모리(130) 및 프로세서(140)를 포함할 수 있다. 다만, 도 1a에 도시된 구성은 본 개시의 실시 예들을 구현하기 위한 예시도이며, 통상의 기술자에게 자명한 수준의 적절한 하드웨어 및 소프트웨어 구성들이 전자 장치(100)에 추가로 포함될 수 있다.As shown in FIG. 1A, according to an embodiment of the present disclosure, the electronic device 100 may include a camera 110, a nonvolatile memory 120, a volatile memory 130, and a processor 140. . However, the configuration illustrated in FIG. 1A is an exemplary diagram for implementing the embodiments of the present disclosure, and appropriate hardware and software configurations, which are obvious to those of ordinary skill in the art, may be additionally included in the electronic device 100.

카메라(110)는 전자 장치(100)의 주변에 대한 하나 이상의 이미지를 획득하기 위한 구성이다. 본 개시의 일 실시예로, 카메라(110)는 전자 장치(100)의 주변에 존재하는 객체를 촬영하여 객체에 대한 이미지를 획득할 수 있다. 즉, 본 개시를 설명함에 있어 '객체에 대한 이미지'는 카메라(110)를 통해 획득된 전자 장치(100) 주변의 객체에 대한 이미지로서, 객체 인식 모델에 입력되는 객체에 대한 이미지를 지칭하기 위해 사용된다.The camera 110 is a component for acquiring one or more images of the surroundings of the electronic device 100. In one embodiment of the present disclosure, the camera 110 may acquire an image of the object by photographing an object existing around the electronic device 100. That is, in describing the present disclosure, the'image of an object' is an image of an object around the electronic device 100 obtained through the camera 110, and is used to refer to an image of an object input to the object recognition model. Is used.

그리고, 카메라(110)는 복수의 카메라를 포함하는 구성일 수 있으며 RGB 카메라, 3D 카메라, Depth 카메라 등으로 다양하게 구현될 수 있다. 그리고, 카메라(110)는 전자 장치(100)의 전방에 위치할 수 있으나 이는 일 실시예에 불과하며, 전자 장치(100)의 후방, 상방 등에 위치할 수 있다. 또한, 카메라(110)는 전자 장치(100)의 외부에 위치하여 전기적으로 연결될 수 있다.Further, the camera 110 may be a configuration including a plurality of cameras, and may be variously implemented as an RGB camera, a 3D camera, a depth camera, and the like. Further, the camera 110 may be located in front of the electronic device 100, but this is only an example, and may be located behind or above the electronic device 100. In addition, the camera 110 may be located outside the electronic device 100 and electrically connected.

비휘발성 메모리(120)는 전력 공급이 중단되더라도 저장된 정보를 유지할 수 있는 메모리를 말한다. 예를 들어, 비휘발성 메모리(120)는 플래시 메모리(Flash Memory), PROM(Programmable Read-Only Memory), MRAM(Magnetoresistive Random-Access Memory) 및 RRAM(Resistive RAM) 중 적어도 하나를 포함할 수 있다.The nonvolatile memory 120 refers to a memory capable of maintaining stored information even when power supply is stopped. For example, the nonvolatile memory 120 may include at least one of a flash memory, a programmable read-only memory (PROM), a magnetic random-access memory (MRAM), and a resistive RAM (RRAM).

휘발성 메모리(130)는 저장된 정보를 유지하기 위해서는 지속적인 전력 공급이 필요한 메모리를 말한다. 예를 들어, 휘발성 메모리(130)는 DRAM(Dynamic Random-Access Memory) 및 SRAM(Static RAM) 중 적어도 하나를 포함할 수 있다.Volatile memory 130 refers to a memory requiring continuous power supply in order to maintain stored information. For example, the volatile memory 130 may include at least one of a dynamic random-access memory (DRAM) and a static RAM (SRAM).

이하 본 개시를 설명함에 있어서는 휘발성 메모리(130)를 프로세서(140)와 구별되는 별개의 구성임을 전제로 설명할 것이지만, 이는 본 개시에 따른 전자 장치(100)의 동작을 명확하게 설명하기 위한 것일 뿐이며, 본 개시에 따른 휘발성 메모리(130)는 프로세서(140)의 일 구성요소로서 프로세서(140)에 포함된 형태로 구현될 수도 있다.In the following description of the present disclosure, a description will be made on the premise that the volatile memory 130 is a separate configuration from the processor 140, but this is only for clearly describing the operation of the electronic device 100 according to the present disclosure. , The volatile memory 130 according to the present disclosure may be implemented in a form included in the processor 140 as a component of the processor 140.

특히, 본 개시의 일 실시 예에 따른 비휘발성 메모리(120)는 적어도 하나의 인스트럭션(instruction), 복수의 객체 인식 모델(10-1~10-N) 및 동작 모드 데이터(20)를 저장할 수 있다. 한편, 인스트럭션은 프로그래밍 언어(programming language)로서 전자 장치(100)에 대한 하나의 동작 문장(action statement)이며, 전자 장치(100)가 직접 수행할 수 있는 프로그램의 최소 단위이다. In particular, the nonvolatile memory 120 according to an embodiment of the present disclosure may store at least one instruction, a plurality of object recognition models 10-1 to 10-N, and operation mode data 20. . Meanwhile, an instruction is a programming language, which is an action statement for the electronic device 100 and is a minimum unit of a program that the electronic device 100 can directly execute.

그리고, 복수의 객체 인식 모델(10-1~10-N) 각각은 카메라(110)를 통해 획득된 객체에 대한 이미지를 이용하여 객체에 대한 정보를 출력할 수 있는 인공지능 모델이다. 구체적으로, 객체 인식 모델은 객체 이미지를 이용하여 객체의 특징 데이터를 출력하고, 출력된 객체의 특징 데이터를 바탕으로 객체에 대한 정보를 출력할 수 있다. 객체에 대한 정보는 객체가 기설정된 클래스(class) 중 어떤 클래스로 분류되는지에 대한 정보를 포함할 수 있다. 클래스는 동일 또는 유사한 속성을 갖는 객체의 집합이다. 복수의 객체 인식 모델(10-1~10-N) 각각은 객체를 기설정된 클래스로 분류하기 위한 클래스에 대한 데이터를 저장할 수 있다. 객체 인식 모델에 대한 구성 및 동작은 도 3a를 참조하여 구체적으로 설명하도록 한다.In addition, each of the plurality of object recognition models 10-1 to 10-N is an artificial intelligence model capable of outputting information about an object using an image of an object acquired through the camera 110. Specifically, the object recognition model may output feature data of an object using an object image, and output information about an object based on the output feature data of the object. The information on the object may include information on which class the object is classified into among preset classes. A class is a collection of objects with the same or similar properties. Each of the plurality of object recognition models 10-1 to 10-N may store data on a class for classifying an object into a preset class. The configuration and operation of the object recognition model will be described in detail with reference to FIG. 3A.

한편, 도 1a에 도시된 바와 같이, 비휘발성 메모리(120)에는 복수의 객체 인식 모델이 개별적으로 저장될 수 있으나 이는 일 실시예에 불과하며, 비휘발성 메모리(120)에는 복수의 고정된 계층 구조(hierarchy structure)를 가지는 객체 인식 모델이 저장될 수 있다. 고정된 계층 구조를 가지는 객체 인식 모델은 적어도 하나의 개별적인 객체 인식 모델이 계층 구조를 이루면서 특정 객체를 기설정된 클래스 중 하나로 분류할 수 있는 모델이며 전자 장치(100)의 유형에 따라 다양하게 구현될 수 있다. 그리고, 계층 구조(또는, 트리 구조(tree structure))란 상위 레벨 노드는 하나 이상의 하위 노드를 가질 수 있으나 하위 레벨의 노드는 반드시 하나의 상위 레벨 노드를 가지는 데이터 구조를 의미한다. Meanwhile, as shown in FIG. 1A, a plurality of object recognition models may be individually stored in the nonvolatile memory 120, but this is only an example, and a plurality of fixed hierarchical structures in the nonvolatile memory 120 An object recognition model having a (hierarchy structure) can be stored. The object recognition model having a fixed hierarchical structure is a model capable of classifying a specific object into one of preset classes while at least one individual object recognition model forms a hierarchical structure, and can be implemented in various ways according to the type of the electronic device 100. have. In addition, the hierarchical structure (or tree structure) refers to a data structure in which an upper-level node may have one or more lower-level nodes, but a lower-level node necessarily has one higher-level node.

또한, 동작 모드 데이터(20)는 전자 장치(100)의 복수의 동작 모드 각각에 대응되는 계층 구조와 관련된 정보를 포함할 수 있다. 본 개시의 일 실시예로, 동작 모드 데이터(20)는 각 동작 모드에 대응되는 계층 구조의 총 레벨의 수, 각 동작 모드에 대응되는 계층 구조의 각 레벨에 배치될 수 있는 객체 인식 모델의 종류 및 객체 인식 모델간의 연관 관계에 대한 정보를 포함할 수 있다. 객체 인식 모델간의 연관 관계는 계층 구조 중 특정 레벨 및 상기 특정 레벨의 하위 레벨에 배치될 수 있는 객체 인식 모델간의 연결 관계를 의미할 수 있다. 따라서, 객체 인식 모델간의 연관 관계에 대한 정보는 특정 레벨의 객체 인식 모델의 자식 노드로서 연결될 수 있는 모델에 대한 정보를 포함할 수 있다. Also, the operation mode data 20 may include information related to a hierarchical structure corresponding to each of a plurality of operation modes of the electronic device 100. In an embodiment of the present disclosure, the operation mode data 20 includes the total number of levels of the hierarchical structure corresponding to each operation mode, and the type of object recognition model that can be arranged at each level of the hierarchical structure corresponding to each operation mode. And information on the relationship between object recognition models. The association relationship between object recognition models may mean a connection relationship between a specific level in the hierarchical structure and an object recognition model that may be disposed at a lower level of the specific level. Accordingly, the information on the association relationship between the object recognition models may include information on a model that can be connected as a child node of the object recognition model of a specific level.

그리고, 동작 모드 데이터(20)는 관계형 데이터 베이스로 구축될 수 있으나 이는 일 실시예에 불과하고 다양하게 구축될 수 있다. 예를 들면, 동작 모드 데이터(20)는 하기 표 1과 같이 구축될 수 있다.In addition, the operation mode data 20 may be constructed as a relational database, but this is only an embodiment and may be constructed in various ways. For example, the operation mode data 20 may be constructed as shown in Table 1 below.

제3 동작 모드3rd mode of operation 총 레벨의 수Total number of levels 33 각 레벨에 배치될 수 있는 모델의 종류Types of models that can be placed on each level {L1:(A), L2:(B,C), L3:(D,E)}{L1:(A), L2:(B,C), L3:(D,E)} 각 모델 간의 연관 관계Association between each model B와 자식 노드로서 연결된 모델: D
C와 자식 노드로서 연결된 모델: E
Model connected to B as a child node: D
Model connected to C as a child node: E

구체적으로, 표 1과 같이 구축된 동작 모드 데이터(20)는 전자 장치의 복수의 동작 모드 중 제3 동작 모드에 대응되는 계층 구조의 총 레벨의 수는 3이며, 제1 레벨에는 A, 제2 레벨에는 B와 C, 제3 레벨에는 D와 E라는 객체 인식 모델이 배치될 수 있으며, B의 자식 노드로서 연결된 모델은 D이며, C의 자식 노드로서 연결된 모델은 E라는 정보를 포함할 수 있다. 총 레벨의 수가 3이라는 것은 계층 구조가 루트 레벨인 제1 레벨부터 제3 레벨까지 구성되어 있음을 의미할 수 있다. 한편, 본 개시의 다른 실시예로, 동작 모드 데이터(20)는 도 1b에 도시된 바와 같이 복수의 계층 구조 템플릿(template), 각 계층 구조 템플릿을 식별할 수 있는 인덱스 번호 및 동작 모드에 대응되는 계층 구조의 구성 정보(70)를 포함할 수 있다. 계층 구조 템플릿은 복수의 객체 인식 모델이 특정 노드에 링크될 수 있도록 계층 구조의 형태를 가지는 템플릿이다. 예를 들면, 도 1b에 도시된 바와 같이, 동작 모드 데이터(20)는 제1 레벨 노드에 제2 레벨 노드(50-1, 50-2)가 두 개 연결되어 구성된 계층 구조 템플릿의 인덱스 번호가 1번이라는 정보, 인덱스 번호가 1인 계층 구조 템플릿의 제2 레벨 노드 중 오른쪽 노드(50-2)에 2개의 제3 레벨 노드(60-1, 60-2)가 연결되어 구성된 계층 구조 템플릿의 인덱스 번호가 2번이라는 정보 등을 포함할 수 있다. 한편, 도 1b에 도시된 계층 구조 템플릿(인덱스 번호가 1번 내지 3번인 계층 구조 템플릿)은 일 실시예에 불과하며 다양하게 구현될 수 있다. 또한, 사용자 명령에 의해 계층 구조 템플릿이 추가/삭제/변경될 수 있음은 물론이다. 한편, 링크란 계층 구조 템플릿 중 특정 레벨의 특정 노드 위치로 객체 인식 모델을 배치하는 동작을 의미할 수 있다.Specifically, in the operation mode data 20 constructed as shown in Table 1, the total number of levels of the hierarchical structure corresponding to the third operation mode among the plurality of operation modes of the electronic device is 3, and the first level is A and the second level. Object recognition models such as B and C in the level and D and E in the third level may be arranged, and the model connected as a child node of B is D, and the model connected as a child node of C may include information such as E. . That the total number of levels is 3 may mean that the hierarchical structure is configured from the first level to the third level, which is the root level. On the other hand, in another embodiment of the present disclosure, the operation mode data 20 is a plurality of hierarchical templates, an index number capable of identifying each hierarchical structure template, and an operation mode corresponding to the operation mode, as shown in FIG. 1B. It may include configuration information 70 of a hierarchical structure. The hierarchical structure template is a template having a hierarchical structure so that a plurality of object recognition models can be linked to a specific node. For example, as shown in FIG. 1B, the operation mode data 20 has an index number of a hierarchical structure template configured by connecting two second level nodes 50-1 and 50-2 to a first level node. Information of number 1, of the hierarchy template composed of two third level nodes (60-1, 60-2) connected to the right node (50-2) among the second level nodes of the hierarchy template with index number 1. It may include information that the index number is number 2, and the like. Meanwhile, the hierarchical structure template shown in FIG. 1B (the hierarchical structure template with index numbers 1 to 3) is only an embodiment and can be implemented in various ways. In addition, it goes without saying that the hierarchical structure template can be added/deleted/changed by a user command. Meanwhile, a link may mean an operation of arranging an object recognition model at a specific node location of a specific level among the hierarchical structure templates.

한편, 계층 구조의 구성 정보(70)는 각 동작 모드에 대응되는 계층 구조 템플릿의 인덱스 번호 및 상기 인덱스 번호를 가지는 계층 구조 템플릿의 각 레벨에 링크될 수 있는 객체 인식 모델의 종류에 대한 정보를 포함할 수 있다. 계층 구조의 구성 정보는 도 1b에 도시된 바와 같이 관계형 데이터 베이스로 구축될 수 있으나 이는 일 실시예에 불과하며 다양하게 구축될 수 있다.Meanwhile, the hierarchical configuration information 70 includes information on the index number of the hierarchical structure template corresponding to each operation mode and the type of object recognition model that can be linked to each level of the hierarchical template having the index number. can do. The configuration information of the hierarchical structure may be constructed as a relational database as shown in FIG. 1B, but this is only an embodiment and may be constructed in various ways.

예를 들어, 도 1b에 도시된 바와 같이, 계층 구조의 구성 정보는 제1 동작 모드에 대응되는 계층 구조 템플릿의 인덱스 번호는 1번이고, 제1 번 계층 구조 템플릿의 제1 레벨 노드에는 A라는 객체 인식 모델이 링크될 수 있고, 제1 레벨의 왼쪽 브랜치(branch)로 연결된 제2 레벨의 노드(60-1)에는 B가, 오른쪽 브랜치로 연결된 제2 레벨의 노드(60-2)에는 C가 링크된다는 정보를 포함할 수 있다. 또 다른 예로, 계층 구조의 구성 정보는 제2 동작 모드에 대응되는 계층 구조 템플릿의 인덱스 번호는 2번이고, 제1 레벨 노드에는 A라는 객체 인식 모델이, 제2 레벨 노드(60-1,60-2)에는 각각 왼쪽부터 B, C라는 객체 인식 모델이, 제3 레벨 노드(70-1,70-2)에는 왼쪽부터 F, G라는 객체 인식 모델이 로딩될 수 있다는 정보를 포함할 수 있다.For example, as shown in FIG. 1B, the hierarchical configuration information is the index number of the hierarchy template corresponding to the first operation mode is 1, and the first level node of the first hierarchical template is A. The object recognition model can be linked, and B is to the node 60-1 of the second level connected to the left branch of the first level, and C is the node 60-2 of the second level connected to the right branch. May include information that is linked. As another example, as for the configuration information of the hierarchy, the index number of the hierarchy template corresponding to the second operation mode is 2, the object recognition model of A is used for the first level node, and the second level nodes 60-1,60 -2) may include information that object recognition models B and C may be loaded from the left, and object recognition models F and G may be loaded from the left to the third level nodes 70-1 and 70-2, respectively. .

한편, 일 실시예로, 프로세서(140)는 적어도 하나의 인스트럭션을 수행함으로써 전자 장치의 전반적인 동작을 제어할 수 있다. 구체적으로, 프로세서(140)는 카메라(110), 비휘발성 메모리(120) 및 휘발성 메모리(130)와 연결되어 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 본 개시를 설명함에 있어, 프로세서(140)는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서(140)는 CPU(Central Processing Unit), AP(Application Processor) 등과 같은 범용 프로세서, GPU(graphics-processing Unit), VPU (Visual Processing Unit) 등과 같은 그래픽 전용 프로세서 또는 NPU(Neural Processing Unit)와 같은 인공지능 전용 프로세서일 수 있다.Meanwhile, in an embodiment, the processor 140 may control the overall operation of the electronic device by executing at least one instruction. Specifically, the processor 140 may be connected to the camera 110, the nonvolatile memory 120, and the volatile memory 130 to control the overall operation of the electronic device 100. In describing the present disclosure, the processor 140 may be configured with one or a plurality of processors. At this time, the one or more processors 140 may be a general-purpose processor such as a CPU (Central Processing Unit), an AP (Application Processor), a graphics-processing unit (GPU), a graphics-processing unit (VPU), or an NPU ( It may be a processor dedicated to artificial intelligence such as Neural Processing Unit).

특히, 프로세서(140)는 비휘발성 메모리(120)에 저장된 동작 모드 데이터(20)를 이용하여 다양한 방식으로 복수의 객체 인식 모델 중 결정된 동작 모드에 대응되는 계층 구조를 가지는 적어도 하나의 객체 인식 모델을 구성할 수 있다. 그리고, 도 1a에 도시된 바와 같이 프로세서(140)는 구성된 계층 구조를 가지는 적어도 하나의 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다. 한편, 로딩(loading)이란 프로세서(140)가 액세스할 수 있도록 비휘발성 메모리(120)에 저장된 데이터를 휘발성 메모리(130)에 불러들여 저장하는 동작을 의미한다.In particular, the processor 140 uses the operation mode data 20 stored in the nonvolatile memory 120 to generate at least one object recognition model having a hierarchical structure corresponding to the determined operation mode among a plurality of object recognition models in various ways. Configurable. In addition, as shown in FIG. 1A, the processor 140 may load at least one object recognition model having a structured hierarchical structure into the volatile memory 130. Meanwhile, loading refers to an operation of loading and storing data stored in the nonvolatile memory 120 into the volatile memory 130 so that the processor 140 can access it.

본 개시의 일 실시예로, 프로세서(140)는 동작 모드 데이터(20)를 통해 식별된 계층 구조의 템플릿, 각 계층 구조 템플릿을 식별할 수 있는 인덱스 번호 및 계층 구조의 구성 정보를 바탕으로 계층 구조를 가지는 객체 인식 모델을 구성할 수 있다. 예를 들어, 전자 장치(100)의 동작 모드가 제1 동작 모드로 결정되면, 프로세서(140)는 동작 모드 데이터(20) 중 계층 구조의 구성 정보를 통해 제1 동작 모드에 대응되는 계층 구조 템플릿의 인덱스 번호는 제1 번이고, 제1 번 계층 구조 템플릿의 제1 레벨에는 A, 제2 레벨에는 B와 C라는 객체 인식 모델이 링크될 수 있음을 식별할 수 있다. 따라서, 도 1b에 도시된 바와 같이, 프로세서(140)는 제1 번 계층 구조 템플릿의 제1 레벨에 A라는 모델, 제2 레벨은 왼쪽 노드를 기준으로 B와 C라는 모델이 링크하여 계층 구조를 가지는 객체 인식 모델을 구성하고, 구성된 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다.In an embodiment of the present disclosure, the processor 140 provides a hierarchical structure based on a template of a hierarchical structure identified through the operation mode data 20, an index number capable of identifying each hierarchical structure template, and configuration information of the hierarchical structure. You can construct an object recognition model with. For example, when the operation mode of the electronic device 100 is determined as the first operation mode, the processor 140 uses a hierarchy template corresponding to the first operation mode through the hierarchical configuration information among the operation mode data 20 It can be identified that the index number of is the first, and object recognition models of A to the first level and B and C to the second level of the first hierarchical template may be linked. Accordingly, as shown in FIG. 1B, the processor 140 links the model A to the first level of the first hierarchical structure template, and the models B and C based on the left node at the second level to create a hierarchical structure. The branch may configure an object recognition model and load the configured object recognition model into the volatile memory 130.

또 다른 일 실시예로, 프로세서(140)는 비휘발성 메모리(120)에 저장된 동작 모드 데이터(20)를 통해 식별된 동작 모드에 대응되는 계층 구조의 총 레벨의 수, 상기 계층 구조의 각 레벨에 배치될 수 있는 객체 인식 모델의 종류 및 상기 객체 인식 모델간의 연관 관계에 대한 정보를 바탕으로 계층 구조를 가지는 객체 인식 모델을 구성할 수 있다. 예를 들면, 상기 표 1에 개시된 바와 같이, 전자 장치(100)의 동작 모드가 제3 동작 모드로 결정되면, 프로세서(140)는 동작 모드 데이터(20)를 통해 제3 동작 모드에 대응되는 계층 구조의 총 레벨의 수는 3이라는 것을 식별하며, 제3 동작 모드일 때 제1 내지 제3 레벨에 배치될 수 있는 객체 인식 모델의 종류 및 각 객체 인식 모델의 연관 관계 정보(예를 들어, 제2 레벨의 객체 인식 모델 각각의 자식 노드로서 연결된 객체 인식 모델에 대한 정보)를 식별할 수 있다. In another embodiment, the processor 140 includes the total number of levels of the hierarchical structure corresponding to the operation mode identified through the operation mode data 20 stored in the nonvolatile memory 120, and each level of the hierarchical structure. An object recognition model having a hierarchical structure may be configured based on information on the types of object recognition models that can be arranged and the association relationship between the object recognition models. For example, as disclosed in Table 1, when the operation mode of the electronic device 100 is determined as the third operation mode, the processor 140 performs a layer corresponding to the third operation mode through the operation mode data 20. It is identified that the total number of levels of the structure is 3, and in the third operation mode, the types of object recognition models that can be placed in the first to third levels and the association information of each object recognition model (e.g., Information on the object recognition model connected as a child node of each of the two-level object recognition models) can be identified.

그리고, 도 1c의 (a)에 도시된 바와 같이, 프로세서(140)는 식별된 제3 동작 모드에 대응되는 총 레벨의 수(예를 들어, 3) 및 각 레벨에 배치될 수 있는 객체 인식 모델의 종류(예를 들어, 제1 레벨에는 A, 제2 레벨에는 B와 C 제3 레벨에는 D와 E라는 객체 인식 모델)를 이용하여 각 레벨 별로 객체 인식 모델을 배치할 수 있다. 그리고, 도 1c의 (b)에 도시된 바와 같이, 프로세서(140)는 식별된 객체 인식 모델간의 연관 관계에 대한 정보를 이용하여 각 레벨 별로 배치된 객체 인식 모델을 브랜치로 연결하여 계층 구조를 가지는 객체 인식 모델을 구성할 수 있다. 그리고, 프로세서(140)는 구성된 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다.In addition, as shown in (a) of FIG. 1C, the processor 140 includes a total number of levels (eg, 3) corresponding to the identified third operation mode and an object recognition model that can be disposed at each level. An object recognition model may be arranged for each level by using the type of (eg, A at the first level, B and C at the second level, and D and E at the third level). And, as shown in (b) of FIG. 1C, the processor 140 has a hierarchical structure by connecting the object recognition models arranged for each level by branches using information on the association relationship between the identified object recognition models. You can construct an object recognition model. In addition, the processor 140 may load the configured object recognition model into the volatile memory 130.

한편, 또 다른 실시예로, 전자 장치(100)의 동작 모드가 결정되면, 프로세서(140)는 비휘발성 메모리(120)에 저장된 복수의 고정된 계층 구조를 가지는 객체 인식 모델 및 동작 모드 데이터(20)를 바탕으로 동작 모드에 대응되는 계층 구조를 가지는 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다. 구체적으로, 전자 장치(100)의 동작 모드가 결정되면, 프로세서(140)는 상기 표 1과 같이 구축된 동작 모드 데이터(20)를 통해 결정된 동작 모드에 대응되는 계층 구조의 총 레벨의 수를 식별할 수 있다. 그리고, 프로세서(140)는 고정된 계층 구조를 가지는 객체 인식 모델 중 제1 레벨부터 식별된 총 레벨의 수와 동일한 레벨까지 계층화된 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다. 한편, 루트 노드(root node)가 제0 레벨로 구현된 경우, 프로세서(140)는 고정된 계층 구조를 가지는 객체 인식 모델 중 제1 레벨부터 총 레벨의 수 보다 하나 작은 레벨까지 계층화된 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다. 일 실시예로, 도 1d에 도시된 바와 같이, 비휘발성 메모리(120)에는 고정된 계층 구조를 가지는 객체 인식 모델(80)이 저장될 수 있다. 그리고, 전자 장치(100)의 동작 모드가 제3 동작 모드로 결정되면, 프로세서(140)는 동작 모드 데이터(20)를 통해 제3 동작 모드에 대응되는 계층 구조의 총 레벨의 수는 3이라는 것을 식별할 수 있다. 그리고, 프로세서(140)는 총 4개의 레벨로 이루어진 계층 구조 중 제1 레벨부터 식별된 제3 레벨까지 계층화된 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다. 상기 방식에 따를 경우, 계층 구조를 따로 구성할 필요 없이 동작 모드에 대응되는 총 레벨의 수만을 식별하면, 프로세서(140)는 동작 모드에 대응되는 계층 구조를 가지는 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다.On the other hand, in another embodiment, when the operation mode of the electronic device 100 is determined, the processor 140 stores an object recognition model and operation mode data 20 having a plurality of fixed hierarchical structures stored in the nonvolatile memory 120. ), an object recognition model having a hierarchical structure corresponding to an operation mode may be loaded into the volatile memory 130. Specifically, when the operation mode of the electronic device 100 is determined, the processor 140 identifies the total number of levels of the hierarchical structure corresponding to the determined operation mode through the operation mode data 20 constructed as shown in Table 1 above. can do. In addition, the processor 140 may load an object recognition model layered from the first level to a level equal to the total number of identified levels among the object recognition models having a fixed hierarchical structure into the volatile memory 130. On the other hand, when the root node is implemented at the 0th level, the processor 140 is an object recognition model that is layered from the first level to a level that is one less than the total number of levels among object recognition models having a fixed hierarchical structure. May be loaded into the volatile memory 130. In one embodiment, as illustrated in FIG. 1D, the object recognition model 80 having a fixed hierarchical structure may be stored in the nonvolatile memory 120. In addition, when the operation mode of the electronic device 100 is determined as the third operation mode, the processor 140 determines that the total number of levels of the hierarchical structure corresponding to the third operation mode is 3 through the operation mode data 20. Can be identified. In addition, the processor 140 may load the recognition model layered from the first level to the identified third level among the hierarchical structure consisting of a total of four levels into the volatile memory 130. In the case of the above method, if only the total number of levels corresponding to the operation mode is identified without having to separately configure a hierarchical structure, the processor 140 generates an object recognition model having a hierarchical structure corresponding to the operation mode to the volatile memory 130 Can be loaded into

전자 장치(100)의 다양한 동작 모드에 대응되는 계층 구조를 가지는 객체 인식 모델을 휘발성 메모리(130)에 로딩하는 실시예는 도 5 내지 도 10을 참조하여 구체적으로 설명하도록 한다.An embodiment of loading an object recognition model having a hierarchical structure corresponding to various operation modes of the electronic device 100 into the volatile memory 130 will be described in detail with reference to FIGS. 5 to 10.

한편, 일 실시예로, 프로세서(140)는 카메라(110)를 통해 획득된 객체 이미지를 로딩된 객체 인식 모델에 입력하여 객체에 대한 특징 데이터를 획득할 수 있다. 구체적으로, 프로세서(140)는 객체 이미지를 계층 구조를 가지는 객체 인식 모델 중 최상위 레벨의 객체 인식 모델(또는, 계층 구조 상 루트 노드(root node)에 해당하는 객체 인식 모델)에 입력하여 객체의 특징 데이터를 획득할 수 있다. 객체의 특징 데이터는 벡터의 형태로 구현될 수 있으나 이는 일 실시예에 불과하며 행렬, 그래프 등으로 다양하게 구현될 수 있다. 그리고, 프로세서(140)는 객체의 특징 데이터를 바탕으로 객체에 대한 정보를 획득할 수 있다. 객체에 대한 정보는 객체가 기설정된 클래스(class) 중 어떤 클래스로 분류되는지에 대한 정보를 포함할 수 있다Meanwhile, in an embodiment, the processor 140 may acquire feature data for the object by inputting the object image acquired through the camera 110 into the loaded object recognition model. Specifically, the processor 140 inputs an object image to an object recognition model of the highest level among the object recognition models having a hierarchical structure (or, an object recognition model corresponding to a root node in the hierarchical structure), and features of the object. Data can be acquired. The feature data of the object may be implemented in the form of a vector, but this is only an example and may be variously implemented as a matrix, a graph, or the like. In addition, the processor 140 may obtain information on the object based on feature data of the object. The information on the object may include information on which class the object is classified into among preset classes.

그리고, 프로세서(140)는 획득한 객체에 대한 정보를 바탕으로 하위 레벨의 객체 인식 모델 중 객체의 특징 데이터를 입력될 객체 인식 모델을 식별할 수 있다. 구체적으로, 상위 레벨의 객체 인식 모델을 통해 객체가 제1 클래스로 분류된다는 정보를 획득한 경우, 프로세서(140)는 객체의 특징 데이터를 입력할 하위 레벨의 객체 인식 모델은 제1 클래스에 대응되는 객체 인식 모델임을 식별할 수 있다. 예를 들면, 도 1a을 참조할 때, 휘발성 메모리(130)에 로딩된 계층 구조를 가지는 객체 인식 모델 중 제1 레벨의 객체 인식 모델(30-1)에서 객체에 대한 정보(예를 들어, 객체가 제1 클래스로 분류되었다는 정보)를 획득하면, 프로세서(140)는 획득한 객체에 대한 정보를 통해 복수의 제2 레벨 객체 인식 모델(40-1, 40-2) 중 제1 클래스에 대응되는 객체 인식 모델을 식별할 수 있다. 그리고, 프로세서(140)는 식별된 제1 클래스에 대응되는 객체 인식 모델에 객체의 특징 데이터를 입력할 수 있다. In addition, the processor 140 may identify an object recognition model to which feature data of an object is to be input among lower-level object recognition models based on the acquired information on the object. Specifically, when obtaining information that an object is classified as a first class through a higher-level object recognition model, the processor 140 determines that the lower-level object recognition model for inputting feature data of the object corresponds to the first class. It can be identified that it is an object recognition model. For example, referring to FIG. 1A, information about an object in the object recognition model 30-1 of the first level among the object recognition models having a hierarchical structure loaded in the volatile memory 130 (for example, Is classified as a first class), the processor 140 uses the acquired object information to correspond to the first class among the plurality of second level object recognition models 40-1 and 40-2. Object recognition model can be identified. In addition, the processor 140 may input feature data of the object into the object recognition model corresponding to the identified first class.

한편, 프로세서(140)는 객체에 대한 정보를 바탕으로 전자 장치(100)의 동작을 결정할 수 있다. 구체적으로, 객체에 대한 정보를 출력한 객체 인식 모델이 계층 구조 중 말단 노드(또는, 잎 노드(leaf node))에 위치한 모델이라고 식별되면, 프로세서(140)는 객체에 대한 정보를 바탕으로 전자 장치(100)의 수행될 동작을 결정할 수 있다. 제1 레벨(또는, 루트 노드)의 객체 인식 모델만이 휘발성 메모리(130)에 로딩된 경우, 프로세서(140)는 제1 레벨의 객체 인식 모델을 통해 획득된 객체에 대한 정보를 바탕으로 전자 장치(100)의 동작을 결정할 수 있음을 물론이다. 프로세서(140)가 복수의 객체 인식 모델을 통해 획득된 객체에 대한 정보를 바탕으로 전자 장치(100)의 동작을 제어하는 실시예는 도 5 내지 도 10을 참조하여 구체적으로 설명하도록 한다.Meanwhile, the processor 140 may determine an operation of the electronic device 100 based on information on an object. Specifically, if the object recognition model that outputs information on an object is identified as a model located at an end node (or leaf node) in the hierarchy, the processor 140 is configured to perform an electronic device based on the information on the object. It is possible to determine the operation to be performed of (100). When only the object recognition model of the first level (or the root node) is loaded into the volatile memory 130, the processor 140 performs an electronic device based on information on the object acquired through the object recognition model of the first level. Of course, it is possible to determine the operation of (100). An embodiment in which the processor 140 controls the operation of the electronic device 100 based on information on objects acquired through a plurality of object recognition models will be described in detail with reference to FIGS. 5 to 10.

한편, 본 개시의 일 실시예로, 동작 모드가 학습 모드로 결정되면, 프로세서(140)는 다양한 방식으로 계층 구조를 가지는 복수의 객체 인식 모델을 학습시킬 수 있다.Meanwhile, according to an embodiment of the present disclosure, when the operation mode is determined as the learning mode, the processor 140 may train a plurality of object recognition models having a hierarchical structure in various ways.

일 실시예로, 동작 모드가 학습 모드인 경우, 카메라(110)를 통해 새로운 객체 이미지를 획득하면, 프로세서(140)는 복수의 객체 인식 모델 중 적어도 하나를 이용하여 새로운 객체의 특징 데이터를 획득할 수 있다. '새로운 객체'는 복수의 객체 인식 모델이 객체를 기설정된 클래스로 분류할 때, 임계값을 초과하는 정확도로 분류할 수 없는 객체를 포함할 수 있다. In one embodiment, when the operation mode is the learning mode, when a new object image is acquired through the camera 110, the processor 140 may acquire feature data of the new object using at least one of a plurality of object recognition models. I can. The'new object' may include an object that cannot be classified with an accuracy exceeding a threshold value when the plurality of object recognition models classify the object into a preset class.

그리고, 프로세서(140)는 새로운 객체의 특징 데이터와 복수의 객체 인식 모델에 대한 정보를 바탕으로 복수의 객체 인식 모델 중 새로운 객체에 대응되는 객체 인식 모델을 결정할 수 있다. 구체적으로, 프로세서(140)는 새로운 객체의 특징 데이터와 복수의 객체 인식 모델 각각에 포함된 클래스에 대한 데이터 간의 유사도(Similarity) 값을 획득할 수 있다. 그리고, 프로세서(140)는 유사도 값이 가장 높은 클래스에 대한 데이터에 대응되는 객체 인식 모델을 새로운 객체에 대응되는 객체 인식 모델로 식별할 수 있다. Further, the processor 140 may determine an object recognition model corresponding to the new object from among the plurality of object recognition models based on feature data of the new object and information on the plurality of object recognition models. Specifically, the processor 140 may obtain a similarity value between feature data of a new object and data for a class included in each of the plurality of object recognition models. In addition, the processor 140 may identify an object recognition model corresponding to data for a class having the highest similarity value as an object recognition model corresponding to a new object.

그리고, 프로세서(140)는 새로운 객체의 특징 데이터를 바탕으로 새로운 객체에 대응되는 객체 인식 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델을 학습시킬 수 있다. 구체적으로, 프로세서(140)는 동작 모드 데이터(20)를 통해 새로운 객체에 대응되는 객체 인식 모델의 조상 노드(ancestor node)로서 연결될 수 있는 객체 인식 모델을 식별할 수 있다. 그리고, 프로세서(140)는 식별된 조상 노드로서 연결될 수 있는 객체 인식 모델을 학습시킬 수 있다. 즉, 프로세서(140)는 전체 객체 인식 모델을 학습시키는 것이 아니라 새로운 객체에 대응되는 객체 인식 모델 및 상기 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델만을 학습시켜 학습시킬 모델의 수를 감소시킬 수 있다. 한편, 유사도 값을 바탕으로 객체 인식 모델을 학습시키는 실시예는 도 11을 참조하여 구체적으로 설명하도록 한다.Further, the processor 140 may train an object recognition model that can be connected as a higher level of an object recognition model corresponding to a new object based on feature data of the new object. Specifically, the processor 140 may identify an object recognition model that can be connected as an ancestor node of an object recognition model corresponding to a new object through the operation mode data 20. In addition, the processor 140 may train an object recognition model that can be connected as an identified ancestor node. That is, the processor 140 may reduce the number of models to be trained by learning only an object recognition model corresponding to a new object and an object recognition model that can be connected as a higher level of the model, rather than training the entire object recognition model. . Meanwhile, an embodiment of learning an object recognition model based on a similarity value will be described in detail with reference to FIG. 11.

한편, 또 다른 실시예로, 동작 모드가 학습 모드인 경우, 프로세서(140)는 저장된 복수의 객체 인식 모델을 나타내는 UI(User interface)를 표시하도록 디스플레이(160)를 제어할 수 있다. 그리고, 카메라(110)를 통해 새로운 객체 이미지가 획득되는 동안 사용자로부터 새로운 객체에 대응되는 객체 인식 모델이 UI를 통해 선택되면, 프로세서(140)는 새로운 객체 이미지를 선택된 객체 인식 모델에 입력하여 새로운 객체 이미지의 특징 데이터를 획득할 수 있다. 그리고, 프로세서(140)는 새로운 객체의 특징 데이터를 바탕으로 선택된 객체 인식 모델 및 선택된 객체 인식 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델을 학습시킬 수 있다. 사용자 선택을 바탕으로 객체 인식 모델을 학습시키는 실시예는 도 12를 참조하여 구체적으로 설명하도록 한다.Meanwhile, in another embodiment, when the operation mode is a learning mode, the processor 140 may control the display 160 to display a user interface (UI) representing a plurality of stored object recognition models. And, while a new object image is acquired through the camera 110, if an object recognition model corresponding to the new object is selected by the user through the UI, the processor 140 inputs the new object image to the selected object recognition model and generates a new object. Image feature data can be obtained. Further, the processor 140 may learn an object recognition model selected based on feature data of a new object and an object recognition model that can be connected as a higher level of the selected object recognition model. An embodiment of training an object recognition model based on user selection will be described in detail with reference to FIG. 12.

한편, 본 개시에 따른 인공지능과 관련된 기능은 비휘발성 메모리(120), 휘발성 메모리(130) 및 프로세서(140)를 통해 동작된다.Meanwhile, functions related to artificial intelligence according to the present disclosure are operated through the nonvolatile memory 120, the volatile memory 130, and the processor 140.

하나 또는 복수의 프로세서(140)는, 비휘발성 메모리(120) 및 휘발성 메모리(130)에 저장된 기 정의된 동작 규칙 또는 인공 지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 기 정의된 동작 규칙 또는 인공 지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 다수의 학습 데이터들에 학습 알고리즘을 적용함으로써, 원하는 특성의 기정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버/시스템을 통해 이루어 질 수도 있다. One or more processors 140 control to process input data according to a predefined operation rule or an artificial intelligence model stored in the nonvolatile memory 120 and the volatile memory 130. A predefined motion rule or an artificial intelligence model is characterized by being created through learning. Here, being made through learning means that a predefined operation rule or an artificial intelligence model of a desired characteristic is created by applying a learning algorithm to a plurality of training data. Such learning may be performed in a device on which artificial intelligence according to the present disclosure is performed, or may be performed through a separate server/system.

인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 각 레이어는 복수의 가중치(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치의 연산을 통해 레이어의 연산을 수행한다. 신경망의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)이 있으며, 본 개시에서의 신경망은 명시한 경우를 제외하고 전술한 예에 한정되지 않는다.The artificial intelligence model may be composed of a plurality of neural network layers. Each layer has a plurality of weight values, and a layer operation is performed through the operation result of a previous layer and a plurality of weights. Examples of neural networks include CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) and deep There are Q-Networks (Deep Q-Networks), and the neural network in the present disclosure is not limited to the above-described example except for the case where it is specified.

학습 알고리즘은, 다수의 학습 데이터들을 이용하여 소정의 대상 기기(예컨대, 로봇)을 훈련시켜 소정의 대상 기기 스스로 결정을 내리거나 예측을 할 수 있도록 하는 방법이다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으며, 본 개시에서의 학습 알고리즘은 명시한 경우를 제외하고 전술한 예에 한정되지 않는다.The learning algorithm is a method in which a predetermined target device (eg, a robot) is trained using a plurality of pieces of learning data so that a predetermined target device can make a decision or make a prediction by itself. Examples of learning algorithms include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, and the learning algorithm in this disclosure is specified. It is not limited to the above-described example except for.

도 2는 본 개시의 실시예에 따른, 전자 장치(100)의 구성을 상세히 도시한 도면이다. 도 2에 도시된 바와 같이 전자 장치(100)는 카메라(110), 비휘발성 메모리(120), 휘발성 메모리(130), 프로세서(140), 통신부(150), 디스플레이(160), 주행부(170), 스피커(180), 입력부(190) 및 센서(195)를 포함할 수 있다. 한편, 카메라(110), 비휘발성 메모리(120), 휘발성 메모리(130), 프로세서(140)는 도 1에서 설명하였으므로 중복되는 설명은 생략하기로 한다.2 is a diagram illustrating a detailed configuration of an electronic device 100 according to an exemplary embodiment of the present disclosure. As shown in FIG. 2, the electronic device 100 includes a camera 110, a nonvolatile memory 120, a volatile memory 130, a processor 140, a communication unit 150, a display 160, and a driving unit 170. ), a speaker 180, an input unit 190, and a sensor 195. Meanwhile, since the camera 110, the non-volatile memory 120, the volatile memory 130, and the processor 140 have been described in FIG. 1, redundant descriptions will be omitted.

통신부(150)는 회로를 포함하며, 서버(미도시) 또는 외부 장치(미도시)와의 통신을 수행할 수 있다. 구체적으로, 프로세서(140)는 통신부(150)를 통해 연결된 서버(미도시) 또는 외부 장치(미도시)로부터 각종 데이터 또는 정보를 수신할 수 있으며, 서버(미도시) 또는 외부 장치(미도시)로 각종 데이터 또는 정보를 전송할 수도 있다.The communication unit 150 includes a circuit and may perform communication with a server (not shown) or an external device (not shown). Specifically, the processor 140 may receive various data or information from a server (not shown) or an external device (not shown) connected through the communication unit 150, and the server (not shown) or an external device (not shown) It is also possible to transmit various data or information.

한편, 통신부(110)는 외부 장치와 통신을 수행하기 위해 다양한 통신 모듈을 포함할 수 있다. 일 예로, 통신부(110)는 무선 통신 모듈을 포함할 수 있으며, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 5G(5th generation) 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신 모듈을 포함할 수 있다. 또 다른 예로, 무선 통신 모듈은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), 중 적어도 하나를 포함할 수 있다.Meanwhile, the communication unit 110 may include various communication modules to perform communication with an external device. For example, the communication unit 110 may include a wireless communication module, for example, LTE, LTE-A (LTE Advance), CDMA (code division multiple access), WCDMA (wideband CDMA), UMTS (universal mobile telecommunications). system), WiBro (Wireless Broadband), 5G (5th generation), or GSM (Global System for Mobile Communications). As another example, the wireless communication module may include at least one of, for example, wireless fidelity (WiFi), Bluetooth, Bluetooth low power (BLE), and Zigbee.

디스플레이(160)는 프로세서(140)의 제어에 따라 다양한 정보를 표시할 수 있다. 일 실시예로, 디스플레이(150)는 프로세서(140) 제어에 따라 복수의 객체 인식 모델을 나타내는 UI를 표시할 수 있다.The display 160 may display various types of information under the control of the processor 140. In an embodiment, the display 150 may display a UI representing a plurality of object recognition models under the control of the processor 140.

디스플레이(160)는 LCD(Liquid Crystal Display Panel), OLED(Organic Light Emitting Diodes) 등으로 구현될 수 있으며, 경우에 따라 플렉서블 디스플레이, 투명 디스플레이 등으로 구현되는 것도 가능하다. 그리고, 디스플레이(160)는 터치 패널과 함께 터치 스크린으로도 구현될 수 있다. 그러나 상술한 구현으로 한정되는 것은 아니며, 디스플레이(160)는 전자 장치(100)의 유형에 따라 다르게 구현될 수 있다.The display 160 may be implemented as a Liquid Crystal Display Panel (LCD), Organic Light Emitting Diodes (OLED), or the like, and may be implemented as a flexible display or a transparent display in some cases. In addition, the display 160 may be implemented as a touch screen together with a touch panel. However, it is not limited to the above-described implementation, and the display 160 may be implemented differently according to the type of the electronic device 100.

주행부(170)는 전자 장치(100)를 이동시키는 구성이며, 모터 및 복수 개의 바퀴를 포함할 수 있다. 특히, 주행부(170)는 프로세서(140) 제어에 따라 전자 장치(100)를 이동시킬 수 있다. The driving unit 170 is a component that moves the electronic device 100 and may include a motor and a plurality of wheels. In particular, the driving unit 170 may move the electronic device 100 according to the control of the processor 140.

스피커(160)는 오디오 처리부(미도시)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 출력하는 구성이다. 전자 장치(100)의 동작이 완료되었을 때, 스피커(160)는 동작이 완료되었다는 알림 메시지를 출력할 수 있다. 또 다른 실시 예로, 동작 모드가 제3 동작 모드일 때 제3 레벨의 객체 인식 모델을 통해 객체 이미지에 포함된 사람 얼굴이 기등록된 사람이 아닌 경우, 스피커(160)는 프로세서(140) 제어에 의해 알림 메시지를 출력할 수 있다.The speaker 160 is a component that outputs various notification sounds or voice messages as well as various audio data on which various processing tasks such as decoding, amplification, and noise filtering have been performed by an audio processing unit (not shown). When the operation of the electronic device 100 is completed, the speaker 160 may output a notification message indicating that the operation has been completed. In another embodiment, when the operation mode is the third operation mode and the human face included in the object image through the object recognition model of the third level is not a registered person, the speaker 160 controls the processor 140 You can print a notification message by

다만, 스피커(160)는 일 실시 예에 불과할 뿐, 오디오 데이터를 출력할 수 있는 다른 출력 단자로 구현될 수도 있다.However, the speaker 160 is only an exemplary embodiment, and may be implemented as another output terminal capable of outputting audio data.

입력부(190)는 회로를 포함하며, 프로세서(140)는 입력부(190)를 통해 전자 장치(100)의 동작을 제어하기 위한 사용자 명령을 수신할 수 있다. 입력부(190)는 터치 센서, (디지털) 펜 센서, 압력 센서, 키, 또는 마이크를 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다.The input unit 190 includes a circuit, and the processor 140 may receive a user command for controlling the operation of the electronic device 100 through the input unit 190. The input unit 190 may include a touch sensor, a (digital) pen sensor, a pressure sensor, a key, or a microphone. The touch sensor may use at least one of, for example, a capacitive type, a pressure sensitive type, an infrared type, or an ultrasonic type.

일 실시예로, 동작 모드가 학습 모드인 경우, 입력부(190)는 사용자로부터 새로운 객체에 대응되는 객체 인식 모델을 선택하기 위한 입력을 수신할 수 있다. 그리고, 입력부(190)는 수신된 입력을 프로세서(140)에 전송할 수 있다.In an embodiment, when the operation mode is a learning mode, the input unit 190 may receive an input for selecting an object recognition model corresponding to a new object from a user. In addition, the input unit 190 may transmit the received input to the processor 140.

센서(195)는 전자 장치(100)의 다양한 상태 정보를 감지할 수 있다. 예를 들면, 센서(195)는 사용자 또는 객체의 존재 및 거리 등 다양한 물리량을 감지할 수 있는 센서(예로, 초음파 센서, 근접 센서, 광센서, IR 센서, UWB 센서, 라이다(LiDAR) 센서 등), 주위의 환경 정보를 감지할 수 있는 센서(예로, 온도 센서, 습도 센서, 기압 센서 등), 위치 정보를 감지할 수 있는 센서(예로, GPS(Global Positioning System) 센서)) 등을 포함할 수 있다.The sensor 195 may detect various state information of the electronic device 100. For example, the sensor 195 is a sensor capable of detecting various physical quantities such as the presence and distance of a user or an object (e.g., an ultrasonic sensor, a proximity sensor, an optical sensor, an IR sensor, a UWB sensor, a LiDAR sensor, etc.) ), sensors that can detect surrounding environment information (e.g., temperature sensor, humidity sensor, barometric pressure sensor, etc.), sensors that can detect location information (e.g., GPS (Global Positioning System) sensor), etc. I can.

도 3a는 본 개시의 일 실시예에 따른, 비휘발성 메모리(120)에 저장된 객체 인식 모델(300)의 구성 및 동작을 설명하기 위한 도면이다. 도 3a에 도시된 바와 같이 객체 인식 모델(300)은 특징 데이터 추출 모듈(320) 및 Classifier 모듈(330)을 포함할 수 있다. 그리고, 특징 데이터 추출 모듈(320) 및 Classifier 모듈(330) 각각은 프로세서(140)에 의해 제어될 수 있다.3A is a diagram illustrating a configuration and operation of an object recognition model 300 stored in a nonvolatile memory 120 according to an embodiment of the present disclosure. As shown in FIG. 3A, the object recognition model 300 may include a feature data extraction module 320 and a classifier module 330. In addition, each of the feature data extraction module 320 and the classifier module 330 may be controlled by the processor 140.

특징 데이터 추출 모듈(320)은 입력된 객체 이미지(310)를 통해 객체의 특징 데이터를 출력할 수 있다. 다만, 이는 일 실시예에 불과하며 특징 데이터 추출 모듈(330)은 음성, 텍스트 등에 대한 특징 데이터를 출력할 수 있다. The feature data extraction module 320 may output feature data of an object through the input object image 310. However, this is only an exemplary embodiment, and the feature data extraction module 330 may output feature data for voice, text, and the like.

한편, 특징 데이터 추출 모듈(320)은 CNN으로 구현될 수 있으나 이는 일 실시예에 불과하며 DNN, RNN 등 다양한 인공 신경망을 통해 구현될 수 있다. 그리고, 특징 데이터 추출 모듈(320)이 획득한 객체의 특징 데이터는 벡터, 행렬, 그래프 등으로 구현될 수 있다.Meanwhile, the feature data extraction module 320 may be implemented as a CNN, but this is only an embodiment and may be implemented through various artificial neural networks such as DNN and RNN. In addition, the feature data of the object acquired by the feature data extraction module 320 may be implemented as a vector, a matrix, a graph, or the like.

Classifier 모듈(330)은 특징 데이터 추출 모듈(320)를 통해 획득된 객체의 특징 데이터를 바탕으로 객체에 대한 정보(340)를 출력할 수 있다. 일 실시예로, 객체에 대한 정보(340)는 객체가 기설정된 클래스 중 어떤 클래스로 분류되는지에 대한 정보 등을 포함할 수 있다. 즉, Classifier 모듈(330)은 객체의 특징 데이터를 기설정된 조건에 따라 분류하였을 때 객체가 어떤 클래스에 속하는지에 대한 정보를 출력할 수 있다. 일 실시예로, 객체가 회피 대상인지 여부를 식별하는 객체 인식 모델에 포함된 Classifier 모듈(330)은 획득된 객체의 특징 데이터를 바탕으로 객체를 회피 대상 또는 비회피 대상으로 분류한 결과에 대한 정보를 출력할 수 있다.The classifier module 330 may output information 340 on the object based on the feature data of the object obtained through the feature data extraction module 320. In an embodiment, the information on the object 340 may include information on which class the object is classified into among preset classes. That is, when classifying characteristic data of an object according to a preset condition, the Classifier module 330 may output information on which class the object belongs. In one embodiment, the classifier module 330 included in the object recognition model for identifying whether the object is an avoidance target is information on the result of classifying the object as an avoidance target or a non-avoidance target based on the acquired feature data of the object. Can be printed.

한편, Classifier 모듈(330)은 클래스에 대한 데이터(미도시)를 포함할 수 있다. 클래스에 대한 데이터는 객체를 기설정된 조건에 따라 복수의 클래스로 분류할 수 있는 데이터의 집합이다. 각 객체 인식 모델에 포함된 Classifier 모듈(330)은 기설정된 조건이 다르므로 클래스에 대한 데이터 역시 다를 수 있으나 이는 일 실시예이며 중복되는 클래스에 대한 데이터를 포함할 수 있다. 일 실시예로, 객체가 회피 대상인지 여부를 식별하는 객체 인식 모델에 포함된 Classifier 모듈은 객체를 회피 대상 또는 비회피 대상 중 하나의 클래스로 분류할 수 있는 데이터를 포함할 수 있다. 도 3b는 본 개시의 일 실시예에 따른, 계층 구조를 가지는 객체 인식 모델의 구성 및 동작을 설명하기 위한 도면이다.Meanwhile, the classifier module 330 may include data (not shown) for a class. The data for a class is a set of data that can classify an object into a plurality of classes according to a preset condition. Since the classifier module 330 included in each object recognition model has different preset conditions, data for classes may also be different, but this is an embodiment and may include data for overlapping classes. In an embodiment, a Classifier module included in an object recognition model for identifying whether an object is an avoidance target may include data capable of classifying an object into one of an avoidance target or a non-avoidance target. 3B is a diagram illustrating a configuration and operation of an object recognition model having a hierarchical structure according to an embodiment of the present disclosure.

일 실시 예로, 도 3b에 도시된 바와 같이, 전자 장치(100)에 의해 제1 레벨의 객체 인식 모델(300-1) 및 제2 레벨의 객체 인식 모델(300-2, 300-3)이 계층화되어 휘발성 메모리(130)에 로딩된 경우, 제1 레벨의 객체 인식 모델(300-1)은 입력된 객체 이미지(310)를 바탕으로 객체에 대한 정보(미도시)를 출력할 수 있다. 구체적으로, 제1 레벨의 객체 인식 모델(300-1)은 객체 이미지를 통해 객체의 특징 데이터를 추출하고, 추출된 객체의 특징 데이터를 기설정된 조건에 따라 분류한 결과 정보인 객체에 대한 정보를 출력할 수 있다.As an example, as shown in FIG. 3B, the first level object recognition model 300-1 and the second level object recognition models 300-2 and 300-3 are layered by the electronic device 100 Thus, when loaded into the volatile memory 130, the object recognition model 300-1 of the first level may output information (not shown) on the object based on the input object image 310. Specifically, the object recognition model 300-1 of the first level extracts feature data of an object through an object image, and classifies the extracted feature data according to a preset condition. Can be printed.

그리고, 전자 장치(100)는 제2 레벨의 객체 인식 모델(300-2, 300-3) 중 획득된 객체에 대한 정보에 대응되는 모델을 식별할 수 있다. 그리고, 전자 장치(100)는 획득된 객체에 대한 정보에 대응되는 모델을 제1 레벨의 객체 인식 모델을 통해 획득된 객체의 특징 데이터를 입력할 모델로 식별할 수 있다.In addition, the electronic device 100 may identify a model corresponding to information on the acquired object from among the object recognition models 300-2 and 300-3 of the second level. In addition, the electronic device 100 may identify a model corresponding to information on the acquired object as a model to input feature data of the object acquired through the object recognition model of the first level.

예를 들어, 제1 레벨 객체 인식 모델(300-1)이 객체가 회피 대상인지 여부를 식별하는 모델이고, 객체가 회피 대상으로 분류된다는 정보를 출력한 경우, 전자 장치(100)는 제2 레벨의 객체 인식 모델(300-2, 300-3) 중 회피 대상 객체를 기설정된 클래스로 분류할 수 있는 객체 인식 모델을 식별할 수 있다. 그리고, 전자 장치(100)는 회피 대상 객체를 기설정된 클래스로 분류할 수 있는 객체 인식 모델을 제1 레벨의 객체 인식 모델(300-1)을 통해 획득된 객체의 특징 데이터를 입력할 모델로 식별할 수 있다. 그리고, 전자 장치(100)는 제2 레벨의 객체 인식 모델(300-2, 300-3) 중 객체가 분류된 클래스에 대응되는 객체 인식 모델에 객체의 특징 데이터를 입력할 수 있다.For example, when the first-level object recognition model 300-1 is a model that identifies whether an object is a target to be avoided, and outputs information that the object is classified as a target to be avoided, the electronic device 100 Among the object recognition models 300-2 and 300-3 of, an object recognition model capable of classifying an object to be avoided into a preset class may be identified. In addition, the electronic device 100 identifies an object recognition model capable of classifying the object to be avoided into a preset class as a model to input feature data of the object obtained through the object recognition model 300-1 of the first level. can do. In addition, the electronic device 100 may input feature data of an object to an object recognition model corresponding to a class in which the object is classified among the object recognition models 300-2 and 300-3 of the second level.

한편, 적어도 2개 이상의 레벨이 포함된 계층 구조를 가지는 객체 인식 모델의 경우, 전자 장치(100)는 최상위 레벨의 모델에 포함된 특징 데이터 추출 모듈만을 활성화시키고, 나머지 하위 레벨의 모델에 포함된 특징 데이터 추출 모듈은 비활성화시킬 수 있다. 모듈을 비활성화시키는 동작은 모듈이 특정 동작을 수행하지 않도록 제어하는 동작을 포함할 수 있다. 예를 들어, 도 3b을 참조할 때, 전자 장치(100)는 제1 레벨의 객체 인식 모델(300-1)에 포함된 특징 데이터 추출 모듈(320-1)은 활성화시키고, 제2 레벨의 객체 인식 모델(300-2, 300-3)에 포함된 특징 데이터 추출 모듈(320-2,320-3)은 비활성화시킬 수 있다.Meanwhile, in the case of an object recognition model having a hierarchical structure including at least two levels, the electronic device 100 activates only the feature data extraction module included in the top-level model, and features included in the remaining lower-level models. The data extraction module can be deactivated. The operation of deactivating the module may include an operation of controlling the module not to perform a specific operation. For example, referring to FIG. 3B, the electronic device 100 activates the feature data extraction module 320-1 included in the object recognition model 300-1 of the first level, and activates the object of the second level. The feature data extraction modules 320-2 and 320-3 included in the recognition models 300-2 and 300-3 may be deactivated.

따라서, 제2 레벨의 객체 인식 모델(300-2, 300-3) 중 객체의 특징 데이터가 입력된 모델에 포함된 Classifier 모듈(330-2, 330-3)은 객체의 특징 데이터를 이용하여 객체에 대한 정보(340-1, 340-2)를 출력할 수 있다. 즉, 제2 레벨의 객체 인식 모델(300-2, 300-3)은 제1 레벨의 객체 인식 모델에서 출력한 객체의 특징 데이터를 활용하여 객체에 대한 정보를 추출하며, 각 모델에 포함된 특징 데이터 추출 모듈(320-2, 320-3)은 비활성화되어 객체의 특징 데이터를 추출하는 동작을 수행하지 않을 수 있다.Accordingly, the classifier modules 330-2 and 330-3 included in the model into which the object feature data is input among the second level object recognition models 300-2 and 300-3 Information 340-1 and 340-2 may be output. That is, the object recognition models 300-2 and 300-3 of the second level extract information on the object by using the feature data of the object output from the object recognition model of the first level, and feature included in each model. The data extraction modules 320-2 and 320-3 may be deactivated and may not perform an operation of extracting feature data of an object.

그리고 일 실시예로, 객체에 대한 정보가 말단 노드에 위치한 객체 인식 모델에서 출력된 경우, 전자 장치(100)는 객체에 대한 정보를 바탕으로 동작을 결정할 수 있다. 일 실시예로, 도 3b에 도시된 바와 같이, 객체에 대한 정보(340-1, 340-2)를 출력한 제2 레벨의 객체 인식 모델이 계층 구조 중 말단 노드에 위치한 모델인 경우, 전자 장치(100)는 객체에 대한 정보를 바탕으로 동작을 결정할 수 있다.In addition, in an embodiment, when information on an object is output from an object recognition model located at an end node, the electronic device 100 may determine an operation based on the information on the object. In an embodiment, as shown in FIG. 3B, when the object recognition model of the second level, which outputs information on objects 340-1 and 340-2, is a model located at an end node in a hierarchical structure, the electronic device 100 may determine an operation based on information on an object.

도 4는 본 개시의 일 실시예에 따른, 전자 장치(100)의 제어 방법을 설명하기 위한 도면이다.4 is a diagram for describing a method of controlling the electronic device 100 according to an embodiment of the present disclosure.

우선, 전자 장치(100)의 동작 모드가 결정되면, 전자 장치(100)는 복수의 객체 인식 모델 중 결정된 동작 모드에 대응되는 계층 구조를 가지는 적어도 하나의 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다(S410). 구체적으로, 전자 장치(100)는 비휘발성 메모리(120)에 저장된 복수의 객체 인식 모델 및 동작 모드 데이터를 이용하여 다양한 방식으로 동작 모드에 대응되는 계층 구조를 가지는 객체 인식 모델을 구성하고, 구성된 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다. First, when an operation mode of the electronic device 100 is determined, the electronic device 100 loads at least one object recognition model having a hierarchical structure corresponding to the determined operation mode among a plurality of object recognition models into the volatile memory 130 It can be done (S410). Specifically, the electronic device 100 constructs an object recognition model having a hierarchical structure corresponding to the operation mode in various ways by using a plurality of object recognition models and operation mode data stored in the nonvolatile memory 120, and The recognition model may be loaded into the volatile memory 130.

본 개시의 일 실시예로, 전자 장치는(100)는 비휘발성 메모리(120)에 저장된 동작 모드 데이터를 통해 동작 모드에 대응되는 계층 구조의 총 레벨의 수, 상기 계층 구조의 각 레벨에 배치될 수 있는 객체 인식 모델의 종류 및 상기 객체 인식 모델간의 연관 관계에 대한 정보를 식별할 수 있다. 그리고, 전자 장치(100)는 식별된 각 정보를 통해 동작 모드에 대응되는 계층 구조를 가지는 객체 인식 모델을 구성하여 휘발성 메모리(130)에 로딩할 수 있다. 위 방식에 따른 구체적인 실시예는 표 1 및 도 1d를 참조하여 설명하였으므로 중복되는 설명은 생략하도록 한다.According to an embodiment of the present disclosure, the electronic device 100 includes the total number of levels of the hierarchical structure corresponding to the operating mode through the operation mode data stored in the nonvolatile memory 120, to be disposed at each level of the hierarchical structure. It is possible to identify the types of object recognition models that can be used and information on the relationship between the object recognition models. In addition, the electronic device 100 may construct an object recognition model having a hierarchical structure corresponding to an operation mode through each of the identified information and load it into the volatile memory 130. Since a specific embodiment according to the above method has been described with reference to Table 1 and FIG. 1D, redundant descriptions will be omitted.

한편, 또 다른 실시예로, 전자 장치(100)는 동작 모드 데이터 중 복수의 계층 구조 템플릿, 각 계층 구조 템플릿을 식별할 수 있는 인덱스 번호 및 동작 모드에 대응되는 계층 구조의 구성 정보를 식별할 수 있다. 그리고, 전자 장치(100)는 식별된 각 정보를 통해 동작 모드에 대응되는 계층 구조를 가지는 객체 인식 모델을 구성하여 휘발성 메모리(130)에 로딩할 수 있다. 위 방식에 따른 구체적인 실시예는 도 1b를 참조하여 구체적으로 설명하였으므로 중복되는 설명은 생략하도록 한다.Meanwhile, in another embodiment, the electronic device 100 may identify a plurality of hierarchical structure templates among operation mode data, an index number for identifying each hierarchical structure template, and configuration information of a hierarchical structure corresponding to the operation mode. have. In addition, the electronic device 100 may construct an object recognition model having a hierarchical structure corresponding to an operation mode through each of the identified information and load it into the volatile memory 130. Since a specific embodiment according to the above method has been described in detail with reference to FIG. 1B, redundant descriptions will be omitted.

또 다른 실시예로, 전자 장치(100)는 동작 모드 데이터를 통해 동작 모드에 대응되는 총 레벨의 수를 식별할 수 있다. 그리고, 전자 장치(100)는 비휘발성 메모리(120)에 저장된 고정된 계층 구조를 가지는 복수의 객체 인식 모델 중 제1 레벨(root level)부터 식별된 총 레벨의 수까지 계층화된 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다. 위 실시예는 도 1d를 참조하여 구체적으로 설명하였으므로 중복되는 설명은 생략하도록 한다.In another embodiment, the electronic device 100 may identify the total number of levels corresponding to the operation mode through operation mode data. In addition, the electronic device 100 volatile the object recognition model layered from the first level to the total number of levels identified among the plurality of object recognition models having a fixed hierarchical structure stored in the nonvolatile memory 120. It can be loaded into the memory 130. Since the above embodiment has been described in detail with reference to FIG. 1D, redundant descriptions will be omitted.

그리고, 전자 장치(100)는 카메라(110)를 통해 획득된 객체 이미지를 로딩된 객체 인식 모델에 입력하여 객체에 대한 정보를 획득할 수 있다(S420). 구체적으로, 전자 장치(100)는 획득된 객체 이미지를 최상위 레벨의 객체 인식 모델에 입력하여 객체의 특징 데이터를 획득할 수 있다. 그리고, 전자 장치(100)는 객체의 특징 데이터를 바탕으로 객체에 대한 정보를 획득할 수 있다. 객체에 대한 정보를 출력한 객체 인식 모델이 계층 구조 상 말단 노드에 해당하는 모델이 아닌 경우, 전자 장치(100)는 객체에 대한 정보를 바탕으로 하위 레벨의 객체 인식 모델 중 객체의 특징 데이터가 입력될 객체 인식 모델을 식별할 수 있다.Further, the electronic device 100 may obtain information on the object by inputting the object image acquired through the camera 110 into the loaded object recognition model (S420). In more detail, the electronic device 100 may acquire feature data of the object by inputting the acquired object image into the object recognition model of the highest level. In addition, the electronic device 100 may obtain information on the object based on feature data of the object. When the object recognition model that outputs information on an object is not a model corresponding to an end node in the hierarchical structure, the electronic device 100 inputs feature data of the object among the object recognition models at a lower level based on the information on the object. You can identify the object recognition model to be used.

그리고, 전자 장치(100)는 객체에 대한 정보를 바탕으로 동작을 결정할 수 있다(S430). 구체적으로, 객체에 대한 정보를 출력한 객체 인식 모델이 계층 구조 상 말단 노드에 해당하는 모델인 경우, 전자 장치(100)는 객체에 대한 정보를 바탕으로 동작을 결정할 수 있다.Further, the electronic device 100 may determine an operation based on information on the object (S430). Specifically, when the object recognition model outputting information on an object is a model corresponding to an end node in a hierarchical structure, the electronic device 100 may determine an operation based on the information on the object.

도 5 내지 도 10은 본 개시의 일 실시예에 따른, 각 동작 모드에 따라 휘발성 메모리(130)에 로딩되는 계층 구조를 가지는 객체 인식 모델의 구조 및 동작을 설명하기 위한 도면이다. 전자 장치(100)가 비휘발성 메모리(120)에 저장되어 있는 복수의 객체 인식 모델을 휘발성 메모리(130)에 로딩하는 과정은 도 1 에서 구체적으로 설명하였으므로 중복되는 설명은 생략하도록 한다.5 to 10 are diagrams for explaining the structure and operation of an object recognition model having a hierarchical structure loaded into the volatile memory 130 according to each operation mode according to an embodiment of the present disclosure. A process of loading a plurality of object recognition models stored in the nonvolatile memory 120 by the electronic device 100 into the volatile memory 130 has been described in detail in FIG. 1, and thus, a redundant description will be omitted.

도 5 내지 도 7은 전자 장치(100)가 청소 로봇으로 구현된 경우의 실시예이며, 도 8 내지 도 10은 전자 장치(100)가 리테일 로봇(retail robot)으로 구현된 경우의 실시예이다. 5 to 7 are examples when the electronic device 100 is implemented as a cleaning robot, and FIGS. 8 to 10 are examples when the electronic device 100 is implemented as a retail robot.

한편, 본 개시의 일 실시예에 따른, 전자 장치(100)는 스마트폰, 태블릿 PC, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 서버, PDA, 의료기기, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치(100)는, 텔레비전, 냉장고, 에어컨, 공기 청정기, 셋톱 박스, 각종 로봇, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM) 중 적어도 하나를 포함할 수 있으나 이에 한정되는 것이다.Meanwhile, the electronic device 100 according to an embodiment of the present disclosure may include at least one of a smartphone, a tablet PC, a desktop PC, a laptop PC, a netbook computer, a server, a PDA, a medical device, or a wearable device. . In some embodiments, the electronic device 100 may include at least one of a television, a refrigerator, an air conditioner, an air purifier, a set-top box, various robots, and a media box (eg, Samsung HomeSyncTM, Apple TVTM, or Google TVTM). It is limited to this.

복수의 동작 모드는 전자 장치(100)의 유형에 따라 다양하게 구현될 수 있으며, 각 동작 모드에 대응되는 객체 인식 모델 또한 다양하게 구현될 수 있다. 따라서, 계층 구조를 가지는 복수의 객체 인식 모델은 도 5 내지 도 10에서 도시된 것으로 한정되는 것은 아니다.The plurality of operation modes may be variously implemented according to the type of the electronic device 100, and object recognition models corresponding to each operation mode may also be variously implemented. Accordingly, the plurality of object recognition models having a hierarchical structure are not limited to those illustrated in FIGS. 5 to 10.

도 5는 본 개시의 일 실시예에 따른, 전자 장치(100)가 청소 로봇으로 구현되고 동작 모드가 제1 동작 모드로 결정되었을 때 휘발성 메모리(130)에 로딩되는 객체 인식 모델을 설명하기 위한 도면이다.5 is a diagram for explaining an object recognition model loaded into the volatile memory 130 when the electronic device 100 is implemented as a cleaning robot and an operation mode is determined as a first operation mode, according to an embodiment of the present disclosure to be.

동작 모드가 제1 동작 모드인 일반 청소모드로 결정되면, 전자 장치(100)는 제1 레벨의 객체 인식 모델로 객체가 회피 대상인지 여부를 식별하는 회피 여부 식별 모델(500)을 휘발성 메모리(130)에 로딩할 수 있다. 전자 장치(100)는 카메라(110)를 통해 획득된 객체 이미지(310)를 회피 여부 식별 모델(500)에 입력할 수 있다. 회피 여부 식별 모델(500)은 입력된 객체 이미지를 바탕으로 객체의 특징 데이터를 출력할 수 있다. 그리고, 회피 여부 식별 모델(500)은 객체의 특징 데이터를 바탕으로 객체를 회피 대상 또는 비회피 대상으로 분류한 결과 정보를 출력할 수 있다. 따라서, 전자 장치(100)는 회피 여부 식별 모델(500)에서 출력된 결과 정보를 통해 전자 장치(100)의 주변에 존재하는 객체가 회피 대상인지 여부를 식별할 수 있다.When the operation mode is determined to be the first operation mode, which is the general cleaning mode, the electronic device 100 uses the first level object recognition model to generate an avoidance identification model 500 for identifying whether an object is an object to be avoided, as a volatile memory 130. ) Can be loaded. The electronic device 100 may input the object image 310 acquired through the camera 110 into the avoidance identification model 500. The avoidance identification model 500 may output feature data of an object based on the input object image. In addition, the avoidance identification model 500 may output information as a result of classifying the object as an avoidance target or a non-avoidance target based on feature data of the object. Accordingly, the electronic device 100 may identify whether an object existing around the electronic device 100 is an avoidance target through result information output from the avoidance identification model 500.

그리고, 동작 모드가 일반 청소모드인 경우 휘발성 메모리(130)에 로딩된 객체 인식 모델은 제1 레벨의 객체 인식 모델인 회피 여부 식별 모델(500) 하나이므로, 전자 장치(100)는 회피 여부 식별 모델(500)로부터 획득한 결과 정보 정보를 바탕으로 동작을 결정할 수 있다. 결과 정보에 객체가 회피 대상이라는 정보가 포함된 경우, 전자 장치(100)는 객체를 회피해서 이동할 수 있다(510). 한편, 결과 정보에 객체가 비회피 대상이라는 정보가 포함된 경우, 전자 장치(100)는 객체를 회피하지 않고 그 주변을 이동하면서 청소를 시작할 수 있다(520).In addition, when the operation mode is the general cleaning mode, the object recognition model loaded in the volatile memory 130 is only one avoidance identification model 500, which is a first-level object recognition model, so that the electronic device 100 is the avoidance identification model. The operation may be determined based on the result information obtained from 500. If the result information includes information that the object is the object to be avoided, the electronic device 100 may avoid the object and move (510). Meanwhile, when the result information includes information that the object is a non-avoidant target, the electronic device 100 may start cleaning while moving around the object without avoiding the object (520 ).

도 6은 본 개시의 일 실시예에 따른, 전자 장치(100)가 청소 로봇으로 구현되고 동작 모드가 제2 동작 모드로 결정되었을 때 휘발성 메모리(130)에 로딩되는 객체 인식 모델을 설명하기 위한 도면이다.6 is a diagram for explaining an object recognition model loaded into the volatile memory 130 when the electronic device 100 is implemented as a cleaning robot and an operation mode is determined as a second operation mode, according to an embodiment of the present disclosure to be.

동작 모드가 제2 동작 모드인 특정 위치 청소모드로 결정되면, 전자 장치(100)는 제1 레벨의 객체 인식 모델로 객체가 회피 대상인지 여부를 식별하는 회피 여부 식별 모델(500)을 로딩하고, 제1 레벨의 하위 레벨로서 제2 레벨의 객체 인식 모델로는 객체의 유형을 식별할 수 있는 객체 유형 식별 모델(600,610)을 휘발성 메모리(130)에 로딩할 수 있다. 일 실시예로, 도 1b에 도시된 바와 같이, 제2 동작 모드로 결정되면, 전자 장치(100)는 동작 모드 데이터 중 계층 구조의 구성 정보를 통해 제2 동작 모드에 대응되는 계층 구조 템플릿은 제1 번 템플릿임을 식별할 수 있다. 또한, 전자 장치(100)는 계층 구조의 구성 정보를 통해 제1 번 템플릿 중 제1 레벨에는 회피 여부 식별 모델(500), 제2 레벨에는 회피 대상 객체의 유형을 식별하는 모델(600) 및 비회피 대상 객체의 유형을 식별하는 모델이 링크 될 수 있음을 식별할 수 있다. 따라서, 전자 장치(100)는 식별된 정보를 바탕으로 도 6에 도시된 바와 같이 계층 구조를 가지는 객체 인식 모델을 휘발성 메모리(130)에 로딩할 수 있다. 한편, 회피 여부 식별 모델(500)과 관련된 실시예는 도 5를 참조하여 설명하였으므로 중복되는 설명은 생략하도록 한다.When the operation mode is determined to be a specific location cleaning mode, which is the second operation mode, the electronic device 100 loads the avoidance identification model 500 for identifying whether the object is an avoidance target as an object recognition model of the first level, and As the object recognition model of the second level as a lower level of the first level, the object type identification models 600 and 610 capable of identifying the type of the object may be loaded into the volatile memory 130. In an embodiment, as shown in FIG. 1B, when the second operation mode is determined, the electronic device 100 determines the hierarchy template corresponding to the second operation mode through the hierarchical configuration information among the operation mode data. It can be identified that it is the No. 1 template. In addition, the electronic device 100 includes an avoidance identification model 500 at the first level of the first template, and a model 600 for identifying the type of the object to be avoided at the second level through the configuration information of the hierarchical structure. It can be identified that a model identifying the type of object to be avoided can be linked. Accordingly, the electronic device 100 may load the object recognition model having a hierarchical structure into the volatile memory 130 as illustrated in FIG. 6 based on the identified information. On the other hand, since the embodiment related to the avoidance identification model 500 has been described with reference to FIG. 5, redundant descriptions will be omitted.

전자 장치(100)는 회피 여부 식별 모델(500)에서 출력된 결과 정보를 바탕으로 복수의 제2 레벨의 객체 인식 모델(600, 610) 중 회피 여부 식별 모델(500)을 통해 획득된 객체의 특징 데이터가 입력될 객체 인식 모델을 식별할 수 있다. 일 실시예로, 객체가 회피 대상이라는 클래스로 분류된다는 정보를 획득하면, 전자 장치(100)는 제2 레벨의 객체 인식 모델(600, 610) 중 분류된 클래스에 대응되는 회피 대상 객체의 유형을 식별하는 모델(600)을 객체의 특징 데이터가 입력될 모델이라고 식별할 수 있다. 또 다른 예로, 객체가 비회피 대상이라는 클래스로 분류된다는 정보를 획득하면, 전자 장치(100)는 제2 레벨의 객체 인식 모델(600, 610) 중 분류된 클래스에 대응되는 비회피 대상 객체의 유형을 식별하는 모델(610)을 객체의 특징 데이터가 입력될 모델이라고 식별할 수 있다The electronic device 100 includes the characteristics of the object obtained through the avoidance identification model 500 among the plurality of second level object recognition models 600 and 610 based on the result information output from the avoidance identification model 500. It is possible to identify an object recognition model into which data is to be input. In one embodiment, upon obtaining information that an object is classified as a class called an object to be avoided, the electronic device 100 selects the type of the object to be avoided corresponding to the classified class among the object recognition models 600 and 610 of the second level. The identifying model 600 may be identified as a model to which feature data of an object is to be input. As another example, when obtaining information that an object is classified as a non-avoidant object, the electronic device 100 determines the type of the non-avoidable object corresponding to the classified class among the object recognition models 600 and 610 of the second level. The model 610 that identifies the object may be identified as a model to which feature data of an object is to be input.

본 개시의 일 실시예로, 각 객체 유형 식별 모델(600, 610)은 입력된 객체의 특징 데이터를 바탕으로 객체의 유형을 분류한 결과 정보를 출력할 수 있다. 따라서, 전자 장치(100)는 각 객체 유형 식별 모델(600, 610)을 통해 객체의 유형을 식별할 수 있다. According to an embodiment of the present disclosure, each object type identification model 600 and 610 may output information as a result of classifying an object type based on the input feature data of the object. Accordingly, the electronic device 100 may identify the type of the object through the respective object type identification models 600 and 610.

한편, 동작 모드가 특정 위치 정소 모드로 결정되는 동안, 전자 장치(100)는 사용자로부터 특정 위치에 대한 정보를 획득할 수 있다. 일 실시예로, 전자 장치(100)는 사용자로부터 특정 위치에 대한 정보가 포함된 사용자 음성(예를 들어, '쇼파 주변 청소해')을 수신할 수 있다. 또 다른 실시예로, 전자 장치(100)는 특정 위치를 선택할 수 있는 UI를 표시하고, 표시된 UI를 통해 사용자로부터 특정 위치를 선택하는 신호를 수신할 수 있다.Meanwhile, while the operation mode is determined as the specific location determination mode, the electronic device 100 may obtain information on the specific location from the user. In an embodiment, the electronic device 100 may receive a user's voice (eg,'clean around the sofa') including information on a specific location from the user. In another embodiment, the electronic device 100 may display a UI for selecting a specific location, and receive a signal for selecting a specific location from a user through the displayed UI.

그리고, 일 실시예로, 식별된 객체가 특정 위치 청소 모드에 대응되는 경우, 전자 장치(100)는 특정 위치 청소 모드에 대응되는 동작을 수행할 수 있다. 즉, 식별된 객체가 사용자로부터 청소하라고 요청된 객체에 대응되는 경우, 전자 장치(100)는 식별된 객체 주변의 청소를 시작할 수 있다. 예를 들면, 동작 모드가 특정 위치 청소 모드로 결정되고 사용자로부터 쇼파 주변을 청소하라는 명령이 입력된 경우에 객체가 쇼파라고 식별되면, 전자 장치(100)는 쇼파 위치에서 청소를 시작할 수 있다(620). 또 다른 예로, 객체가 쇼파가 아닌 다른 객체로 식별되면, 전자 장치(100)는 객체를 회피해서 쇼파인 객체를 식별할 때까지 이동할 수 있다(630).도 7은 본 개시의 일 실시예에 따른, 전자 장치(100)가 청소 로봇으로 구현되고 동작 모드가 제3 동작 모드로 결정되었을 때 휘발성 메모리(130)에 로딩되는 객체 인식 모델을 설명하기 위한 도면이다.And, as an embodiment, when the identified object corresponds to a specific location cleaning mode, the electronic device 100 may perform an operation corresponding to the specific location cleaning mode. That is, when the identified object corresponds to the object requested to be cleaned by the user, the electronic device 100 may start cleaning around the identified object. For example, when the operation mode is determined as a specific location cleaning mode and a command to clean the surroundings of the sofa is input from the user, if the object is identified as a sofa, the electronic device 100 may start cleaning at the location of the sofa (620). ). As another example, if the object is identified as an object other than the sofa, the electronic device 100 may avoid the object and move until the sofa object is identified (630 ). FIG. 7 illustrates an embodiment of the present disclosure. Accordingly, a diagram for explaining an object recognition model loaded in the volatile memory 130 when the electronic device 100 is implemented as a cleaning robot and the operation mode is determined as the third operation mode.

본 개시의 일 실시예로, 동작 모드가 제3 동작 모드인 보안 모드로 결정되면, 전자 장치(100)는 제1 레벨의 객체 인식 모델인 객체가 회피 대상인지 여부를 식별하는 회피 여부 식별 모델(500), 제1 레벨의 하위 레벨인 제2 레벨의 객체 인식 모델로서 객체의 유형을 식별할 수 있는 객체 유형 식별 모델(600), 제2 레벨의 하위 레벨인 제3 레벨의 객체 인식 모델로서 사람 얼굴을 인식할 수 있는 얼굴 인식 모델(700)을 휘발성 메모리(130)에 로딩할 수 있다. 회피 여부 식별 모델(500) 및 객체 유형 식별 모델(600)과 관련된 실시예는 도 5 및 도 6에서 설명하였으므로 중복되는 설명은 생략하도록 한다.According to an embodiment of the present disclosure, when the operation mode is determined to be the security mode, which is the third operation mode, the electronic device 100 determines whether an object, which is a first-level object recognition model, is an avoidance object. 500), an object type identification model that can identify the type of an object as a second level object recognition model that is a lower level of the first level, and a third level object recognition model that is a lower level of the second level. A face recognition model 700 capable of recognizing a face may be loaded into the volatile memory 130. Since the embodiments related to the avoidance identification model 500 and the object type identification model 600 have been described with reference to FIGS. 5 and 6, overlapping descriptions will be omitted.

한편, 동작 모드가 보안 모드로 결정되면, 전자 장치(100)는 계층 구조를 가지는 복수의 객체 인식 모델 중 제2 레벨의 객체 인식 모델로서 비회피 대상 객체의 유형을 식별하는 모델(610)은 휘발성 메모리(130)에 로딩하지 않을 수 있다. 구체적으로, 보안 모드는 전자 장치(100)가 제3 레벨의 객체 인식 모델인 얼굴 인식 모델(700)을 통해 객체가 등록된 사람인지 여부를 식별하기 위한 모드일 수 있다. 객체의 유형이 사람일 수 없는 비회피 대상 객체의 경우 유형을 식별할 필요가 없으므로, 전자 장치(100)는 동작 모드가 보안 모드인 경우 비회피 대상 객체의 유형을 식별하는 모델(610)은 계층 구조 상의 제2 레벨의 객체 인식 모델로서 휘발성 모델(130)에 로딩하지 않을 수 있다.Meanwhile, when the operation mode is determined as the security mode, the electronic device 100 is a second-level object recognition model among a plurality of object recognition models having a hierarchical structure, and the model 610 for identifying the type of the non-avoidable object is volatile. It may not be loaded into the memory 130. Specifically, the security mode may be a mode for identifying whether the electronic device 100 is a registered person through the face recognition model 700, which is a third-level object recognition model. In the case of a non-avoidable object whose type cannot be a person, it is not necessary to identify the type, so when the operation mode is a security mode, the model 610 that identifies the type of the non-avoidable object is layered. As an object recognition model of the second level in the structure, the volatile model 130 may not be loaded.

일 실시예로, 도 7에 도시된 바와 같이, 회피 대상 객체의 유형을 식별하는 객체 인식 모델(600)을 통해 객체의 유형이 사람이라고 식별되면, 전자 장치(100)는 회피 여부 식별 모델(500)에서 획득한 객체의 특징 데이터를 제3 레벨의 객체 인식 모델인 얼굴 인식 모델(700)에 입력할 수 있다. As an embodiment, as shown in FIG. 7, when the type of the object is identified as human through the object recognition model 600 for identifying the type of the object to be avoided, the electronic device 100 determines whether the avoidance identification model 500 The feature data of the object obtained in) may be input to the face recognition model 700, which is a third-level object recognition model.

한편, 일 실시예에 따른, 얼굴 인식 모델(700)은 객체의 특징 데이터를 바탕으로 객체 이미지에 포함된 사람 얼굴을 기등록된 사람 얼굴 또는 미등록된 사람 얼굴로 분류한 결과 정보를 출력할 수 있다. 따라서, 전자 장치(100)는 얼굴 인식 모델(700)을 통해 객체 이미지에 포함된 사람 얼굴이 기등록된 사람 얼굴인지 여부를 식별할 수 있다.Meanwhile, the face recognition model 700 according to an embodiment may output information as a result of classifying a human face included in an object image as a pre-registered human face or an unregistered human face based on feature data of the object. . Accordingly, the electronic device 100 may identify whether a human face included in the object image is a pre-registered human face through the face recognition model 700.

그리고, 일 실시예로, 객체 이미지에 포함된 사람 얼굴이 기등록된 사람 얼굴이 아니라고 식별되면, 전자 장치(100)는 알림 메시지를 제공할 수 있다(720). 예를 들면, 전자 장치(100)는 기설정된 사람 또는 기관(예를 들어, 기등록된 사람, 경비 업체, 경찰 등)에게 미등록된 사람 얼굴을 식별하였다는 메시지를 전송할 수 있다. 또 다른 예로, 전자 장치(100)는 미등록된 사람을 식별하였다는 경보음을 출력할 수 있다.In addition, as an embodiment, when it is identified that the human face included in the object image is not a pre-registered human face, the electronic device 100 may provide a notification message (720). For example, the electronic device 100 may transmit a message indicating that the face of an unregistered person has been identified to a preset person or institution (eg, a person registered in advance, a security company, a police officer, etc.). As another example, the electronic device 100 may output an alarm sound indicating that an unregistered person has been identified.

한편, 일 실시예로, 객체 이미지에 포함된 사람 얼굴이 기등록된 사람 얼굴이라고 식별되면, 전자 장치(100)는 식별된 사람 얼굴을 회피하여 이동하면서 보안 모드를 수행할 수 있다(710). Meanwhile, as an embodiment, when a human face included in the object image is identified as a pre-registered human face, the electronic device 100 may perform the security mode while moving while avoiding the identified human face (operation 710).

그리고, 도 7에 도시된 바와 같이, 회피 여부 식별 모델(500)을 통해 객체가 비회피 대상이라고 식별하거나 객체 유형 식별 모델(600)이 사람이 아닌 회피 대상 객체의 유형을 식별한 경우, 전자 장치(100)는 식별한 객체를 회피하여 이동하면서 보안 모드를 수행할 수 있다(730).And, as shown in FIG. 7, when the object is identified as a non-avoidant object through the avoidance identification model 500 or the object type identification model 600 identifies the type of the object to be avoided other than a person, the electronic device Reference numeral 100 may perform the security mode while moving while avoiding the identified object (730).

도 8은 본 개시의 일 실시예에 따른, 전자 장치(100)가 리테일 로봇으로 구현되고 동작 모드가 제1 동작 모드로 결정되었을 때 휘발성 메모리(130)에 로딩되는 객체 인식 모델을 설명하기 위한 도면이다.FIG. 8 is a diagram for explaining an object recognition model loaded into the volatile memory 130 when the electronic device 100 is implemented as a retail robot and an operation mode is determined as a first operation mode, according to an embodiment of the present disclosure to be.

동작 모드가 제1 동작 모드인 Busy 모드로 결정되면, 전자 장치(100)는 제1 레벨의 객체 인식 모델로 객체가 회피 대상인지 여부를 식별하는 회피 여부 식별 모델(800)을 휘발성 메모리(130)에 로딩할 수 있다. When the operation mode is determined as the first operation mode, the busy mode, the electronic device 100 uses an object recognition model of a first level to determine whether an object is an object to be avoided, and the evasion identification model 800 is used in the volatile memory 130. Can be loaded into

일 실시예로, 전자 장치(100)는 회피 여부 식별 모델(800)을 통해 객체가 비회피 대상인 손님인지 회피 대상인지 여부를 식별할 수 있다. 구체적으로, 전자 장치(100)는 객체에 대한 이미지(310)를 회피 여부 식별 모델(800)에 입력할 수 있다. 그리고, 회피 여부 식별 모델(800)은 객체에 대한 이미지(310)를 바탕으로 객체의 특징 데이터를 출력할 수 있다. 그리고, 회피 여부 식별 모델(800)은 객체의 특징 데이터를 바탕으로 객체를 비회피 대상인 손님 또는 회피 대상으로 분류한 결과 정보를 출력할 수 있다. 일 실시예로, 객체가 사람이 아니라고 식별할 경우, 회피 여부 식별 모델(800)은 객체를 회피 대상 객체로 분류한 결과 정보를 출력할 수 있다. 또 다른 실시예로, 객체가 매장 직원 등 기등록된 사람이라고 식별할 경우, 회피 여부 식별 모델(800)은 객체를 회피 대상 객체라고 분류한 결과 정보를 출력할 수 있다. 따라서, 전자 장치(100)는 회피 여부 식별 모델(800)에서 출력된 결과 정보를 바탕으로 객체가 비회피 대상인 손님인지 회피 대상인지 여부를 식별할 수 있다.In an embodiment, the electronic device 100 may identify whether the object is a non-avoidant guest or an avoidance target through the avoidance identification model 800. Specifically, the electronic device 100 may input the image 310 of the object into the avoidance identification model 800. In addition, the avoidance identification model 800 may output feature data of the object based on the image 310 of the object. In addition, the avoidance identification model 800 may output information as a result of classifying the object as a non-avoidant target guest or an avoidance target based on feature data of the object. In an embodiment, when it is identified that the object is not a person, the avoidance identification model 800 may output information as a result of classifying the object as an object to be avoided. In another embodiment, when the object is identified as a registered person such as a store employee, the avoidance identification model 800 may classify the object as an object to be avoided and output information as a result of classifying the object. Accordingly, the electronic device 100 may identify whether the object is a non-avoidable guest or an avoided target based on result information output from the avoidance identification model 800.

그리고, 동작 모드가 Busy 모드인 경우, 휘발성 메모리(130)에 로딩된 객체 인식 모델은 제1 레벨의 객체 인식 모델인 회피 여부 식별 모델(800) 하나이므로, 전자 장치(100)는 회피 여부 식별 모델(800)로부터 획득한 결과 정보 정보를 바탕으로 수행할 동작을 결정할 수 있다. 결과 정보에 객체가 비회피 대상인 손님이라는 정보가 포함된 경우, 전자 장치(100)는 손님 응대 동작(예를 들어, 매장 위치 정보, 물품의 가격 정보 등을 제공하는 UI를 표시하는 동작)을 수행할 수 있다(810). 한편, 결과 정보에 객체가 회피 대상이라는 정보가 포함된 경우, 전자 장치(100)는 객체를 회피하여 이동할 수 있다(820).In addition, when the operation mode is the Busy mode, the object recognition model loaded in the volatile memory 130 is one avoidance identification model 800, which is a first-level object recognition model, so the electronic device 100 is the avoidance identification model. An operation to be performed may be determined based on result information obtained from 800. When the result information includes information that the object is a non-avoidant customer, the electronic device 100 performs a customer response operation (for example, an operation of displaying a UI providing information on a store location, price information of an item, etc.) Can do it (810). Meanwhile, when the result information includes information indicating that the object is the object to be avoided, the electronic device 100 may avoid the object and move (820).

도 9는 본 개시의 일 실시예에 따른, 전자 장치(100)가 리테일 로봇으로 구현되고 동작 모드가 제2 동작 모드로 결정되었을 때 휘발성 메모리(130)에 로딩되는 객체 인식 모델을 설명하기 위한 도면이다.9 is a diagram for explaining an object recognition model loaded into the volatile memory 130 when the electronic device 100 is implemented as a retail robot and an operation mode is determined as a second operation mode, according to an embodiment of the present disclosure to be.

동작 모드가 제2 동작 모드인 일반 모드로 결정되면, 전자 장치(100)는 제1 레벨의 객체 인식 모델로 객체가 회피 대상인지 여부를 식별하는 회피 여부 식별 모델(800)을 로딩하고, 제1 레벨의 하위 레벨인 제2 레벨의 객체 인식 모델로서 비회피 대상인 객체의 유형을 식별할 수 있는 모델을 휘발성 메모리(130)에 로딩할 수 있다. 비회피 대상인 객체의 유형을 식별할 수 있는 모델은 손님의 연령대를 인식할 수 있는 연령대 인식 모델(910)로 구현될 수 있으나 이는 일 실시예에 불과하며 손님의 신장 크기 인식 모델, 손님의 소지품 인식 모델 등 다양하게 구현될 수 있다. 회피 여부 식별 모델(800)과 관련된 실시예는 도 5를 참조하여 설명하였으므로 중복되는 설명은 생략하도록 한다.When the operation mode is determined to be the second operation mode, the general mode, the electronic device 100 loads the avoidance identification model 800 for identifying whether the object is an avoidance target as a first level object recognition model, and the first As an object recognition model of a second level, which is a lower level of the level, a model capable of identifying a type of an object to be non-avoidable may be loaded into the volatile memory 130. The model capable of identifying the type of object that is to be avoided may be implemented as an age group recognition model 910 capable of recognizing the age of the customer, but this is only an example, and the model for recognizing the height of the customer and the customer's belongings It can be implemented in various ways such as models. Since the embodiment related to the avoidance identification model 800 has been described with reference to FIG. 5, redundant descriptions will be omitted.

도 9에 도시된 바와 같이, 제2 레벨의 객체 인식 모델은 연령대 인식 모델(910) 하나이므로, 객체가 비회피 대상인 손님으로 식별되면, 전자 장치(100)는 회피 여부 식별 모델(800)을 통해 획득한 객체의 특징 데이터를 연령대 인식 모델(910)에 입력할 수 있다.As shown in FIG. 9, since the second level object recognition model is one age group recognition model 910, when an object is identified as a non-avoidant customer, the electronic device 100 uses the avoidance identification model 800. The acquired feature data of the object may be input into the age group recognition model 910.

그리고, 전자 장치(100)는 연령대 인식 모델(910)을 통해 객체인 손님의 연령대를 인식할 수 있다. 일 실시예로, 도 9에 도시된 바와 같이 연령대 인식 모델(910)은 입력된 객체의 특징 데이터를 바탕으로 손님의 연령대를 노인, 성인, 어린이 등으로 분류한 결과 정보를 출력할 수 있다. 따라서, 전자 장치(100)는 연령대 인식 모델(910)을 통해 획득한 결과 정보를 바탕으로 손님의 연령대를 인식 할 수 있다.In addition, the electronic device 100 may recognize the age group of the customer, which is an object, through the age group recognition model 910. As an embodiment, as shown in FIG. 9, the age group recognition model 910 may output information as a result of classifying the age group of a guest into elderly, adult, child, etc. based on the input feature data of the object. Accordingly, the electronic device 100 may recognize the age group of the customer based on the result information obtained through the age group recognition model 910.

그리고, 일반 모드인 경우, 제2 레벨의 객체 인식 모델인 연령대 인식 모델(910)은 계층 구조 상 말단 노드에 해당하는 모델이므로, 전자 장치(100)는 연령대 인식 모델(910)을 통해 획득된 결과 정보를 바탕으로 동작을 결정할 수 있다. 일 실시예로, 손님의 연령대가 노인으로 식별된 경우, 전자 장치(100)는 쉽고 자세한 손님 응대 동작을 수행할 수 있다(920). 또 다른 예로, 손님의 연령대가 성인으로 식별된 경우, 전자 장치(100)는 기설정된 일반적인 손님 응대 동작을 수행할 수 있다(930). 또 다른 예로, 손님의 연령대가 어린이로 식별된 경우, 전자 장치(100)는 동요 목소리로 손님 응대 동작을 수행할 수 있다(940). 한편, 회피 여부 식별 모델(800)을 통해 객체가 회피 대상 객체라고 식별되면, 전자 장치(100)는 객체를 회피하여 이동할 수 있다(820).And, in the case of the general mode, since the age group recognition model 910, which is the second level object recognition model, corresponds to an end node in the hierarchical structure, the electronic device 100 results in a result obtained through the age group recognition model 910. Actions can be determined based on the information. In an embodiment, when the age of the customer is identified as the elderly, the electronic device 100 may perform an easy and detailed customer response operation (920 ). As another example, when the age of the guest is identified as an adult, the electronic device 100 may perform a preset general customer response operation (930 ). As another example, when the age group of the guest is identified as a child, the electronic device 100 may perform a guest response operation with an agitated voice (940 ). Meanwhile, if the object is identified as the object to be avoided through the avoidance identification model 800, the electronic device 100 may move by avoiding the object (820 ).

도 10은 본 개시의 일 실시예에 따른, 전자 장치(100)가 리테일 로봇으로 구현되고 동작 모드가 제3 동작 모드로 결정되었을 때 휘발성 메모리(130)에 로딩되는 계층 구조의 객체 인식 모델을 설명하기 위한 도면이다.10 illustrates a hierarchical object recognition model loaded in the volatile memory 130 when the electronic device 100 is implemented as a retail robot and an operation mode is determined as a third operation mode, according to an embodiment of the present disclosure It is a drawing to do.

본 개시의 일 실시예로 도 10에 도시된 바와 같이, 동작 모드가 제3 동작 모드인 VIP 모드로 결정되면 전자 장치(100)는 제1 레벨의 객체 인식 모델로 객체가 회피 대상인지 여부를 식별하는 회피 여부 식별 모델(800), 제1 레벨의 하위 레벨인 제2 레벨의 객체 인식 모델로서 손님이 기등록된 VIP 손님인지 여부를 식별하는 제1 VIP 인식 모델(1000), 제2 레벨의 하위 레벨인 제3 레벨의 객체 인식 모델로서 개별적인 VIP 손님을 식별할 수 있는 제2 VIP 모델(1010) 및 연령대 인식 모델(910)을 휘발성 메모리(130)에 로딩할 수 있다.As an embodiment of the present disclosure, as shown in FIG. 10, when the operation mode is determined to be the VIP mode, which is the third operation mode, the electronic device 100 identifies whether the object is an object to be avoided using a first-level object recognition model. The avoidance identification model 800, which is a second level object recognition model that is a lower level of the first level, and a first VIP recognition model 1000 that identifies whether a guest is a pre-registered VIP guest, and a lower level of the second level. As an object recognition model of a third level, which is a level, a second VIP model 1010 and an age group recognition model 910 capable of identifying individual VIP guests may be loaded into the volatile memory 130.

도 10에 도시된 바와 같이, 제2 레벨의 객체 인식 모델은 제1 VIP 인식 모델(1000) 하나이므로, 객체가 비회피 대상인 손님으로 식별되면, 전자 장치(100)는 회피 여부 식별 모델(800)을 통해 획득한 객체의 특징 데이터를 제1 VIP 모델(1000)에 입력할 수 있다.As shown in FIG. 10, since the object recognition model of the second level is one first VIP recognition model 1000, when the object is identified as a non-avoidant customer, the electronic device 100 is the evasion identification model 800. The feature data of the object acquired through may be input into the first VIP model 1000.

그리고, 구체적으로, 전자 장치(100)는 제1 VIP 모델(1000)을 통해 손님이 기등록된 VIP 손님인지 여부를 식별할 수 있다. 일 실시예로, 제1 VIP 인식 모델(1000)은 입력된 객체의 특징 데이터를 바탕으로 객체인 손님을 VIP 손님 또는 VIP가 아닌 일반 손님으로 분류한 결과 정보를 출력할 수 있다. 따라서, 전자 장치(100)는 제1 VIP 인식 모델(1000)을 통해 획득한 결과 정보를 바탕으로 손님이 기등록된 VIP 손님인지 여부를 식별할 수 있다.And, in detail, the electronic device 100 may identify whether the guest is a pre-registered VIP guest through the first VIP model 1000. In an embodiment, the first VIP recognition model 1000 may output information as a result of classifying a guest, which is an object, as a VIP guest or a non-VIP guest based on the input feature data of the object. Accordingly, the electronic device 100 may identify whether the guest is a pre-registered VIP guest based on result information obtained through the first VIP recognition model 1000.

그리고, 일 실시예로, 전자 장치(100)는 손님이 기등록된 VIP 손님인지 여부를 바탕으로 제3 레벨의 객체 인식 모델(910, 1010) 중 회피 여부 식별 모델(800)을 통해 획득된 객체의 특징 데이터가 입력될 객체 인식 모델을 식별할 수 있다. 일 실시예로, 제1 VIP 인식 모델(1000)을 통해 객체인 손님이 기등록된 VIP 손님이라는 클래스로 분류되었다는 정보를 획득한 경우, 전자 장치(100)는 제3 레벨의 객체 인식 모델(910, 1010) 중 객체의 특징 데이터를 제2 VIP 인식 모델(1010)이라고 식별할 수 있다. 또 다른 예로, 제2 VIP 인식 모델(1010)을 통해 객체인 손님이 기등록된 VIP 손님이 아닌 일반 손님이라는 클래스로 분류되었다는 정보를 획득한 경우, 전자 장치(100)는 제3 레벨의 객체 인식 모델(910, 1010) 중 객체의 특징 데이터를 연령대 인식 모델(910)이라고 식별할 수 있다. 그리고, 전자 장치(100)는 특징 데이터가 입력될 객체 인식 모델이라고 식별한 모델에 특징 데이터를 입력할 수 있다.And, as an embodiment, the electronic device 100 is an object acquired through the avoidance identification model 800 among the object recognition models 910 and 1010 of the third level based on whether the guest is a pre-registered VIP guest. It is possible to identify an object recognition model to which the feature data of is to be input. In an embodiment, when information indicating that a guest, which is an object, has been classified into a class called a pre-registered VIP guest, is obtained through the first VIP recognition model 1000, the electronic device 100 is configured with the object recognition model 910 of the third level. , 1010), the feature data of the object may be identified as the second VIP recognition model 1010. As another example, when information indicating that a guest, which is an object, has been classified as a class called a general guest, not a previously registered VIP guest, is obtained through the second VIP recognition model 1010, the electronic device 100 recognizes the object of the third level. Among the models 910 and 1010, feature data of an object may be identified as an age group recognition model 910. In addition, the electronic device 100 may input feature data to a model that has identified that the feature data is an object recognition model to be input.

한편, 일 실시예로, 손님이 VIP라고 식별된 경우, 전자 장치(100)는 특징 데이터를 제2 VIP 인식 모델(1010)에 입력하여 개별적인 VIP 손님을 식별할 수 있다. 구체적으로, 제2 VIP 인식 모델(1010)은 입력된 객체의 특징 데이터를 바탕으로 손님이 어떤 손님으로 분류되는지에 대한 결과 정보를 출력할 수 있다. 따라서, 전자 장치(100)는 제2 VIP 인식 모델(1010)에서 획득된 결과 정보를 바탕으로 객체 이미지에 포함된 손님은 기등록된 VIP 손님 중 어떤 손님인지 여부를 식별할 수 있다.Meanwhile, in an embodiment, when the guest is identified as a VIP, the electronic device 100 may identify individual VIP guests by inputting feature data into the second VIP recognition model 1010. Specifically, the second VIP recognition model 1010 may output result information on which customer is classified as a customer based on the input feature data of the object. Accordingly, the electronic device 100 may identify which of the previously registered VIP guests is a guest included in the object image based on the result information obtained from the second VIP recognition model 1010.

그리고, 제2 VIP 인식 모델(1010)은 계층 구조 상 말단 노드에 해당하는 모델이므로, 전자 장치(100)는 제2 VIP 인식 모델(1010)을 통해 획득된 결과 정보를 바탕으로 동작을 결정할 수 있다. 일 실시예로, 전자 장치(100)는 식별된 기등록된 VIP 손님에 대응되는 응대 동작을 수행할 수 있다(1020,1030,1040). 예를 들면, 객체가 제1 VIP 손님이라고 식별되면, 전자 장치(100)는 제1 VIP 손님에 대응되는 동작(예를 들어, 제1 VIP가 최근 구매 물품과 관련된 물품의 정보를 표시하는 동작 등)을 수행할 수 있다(1020).Further, since the second VIP recognition model 1010 is a model corresponding to an end node in a hierarchical structure, the electronic device 100 may determine an operation based on result information obtained through the second VIP recognition model 1010. . In an embodiment, the electronic device 100 may perform a response operation corresponding to the identified pre-registered VIP guest (1020, 1030, and 1040). For example, when the object is identified as a first VIP guest, the electronic device 100 performs an operation corresponding to the first VIP guest (for example, an operation in which the first VIP displays information on an item related to a recently purchased item, etc.). ) Can be performed (1020).

한편, 일 실시예로, 객체인 손님이 기등록된 VIP 손님이 아닌 일반 손님으로 식별된 경우, 전자 장치(100)는 연령대 인식 모델(910)에 객체의 특징 데이터를 입력하여 손님의 연령대를 인식하고, 인식된 연령대에 대응되는 동작을 수행할 수 있다. 연령대 인식 모델(910)와 관련된 실시예는 도 9를 참조하여 설명하였으므로 중복되는 설명은 생략하도록 한다.Meanwhile, in an embodiment, when a guest, which is an object, is identified as a general guest rather than a registered VIP guest, the electronic device 100 recognizes the age of the guest by inputting characteristic data of the object into the age group recognition model 910. And, it is possible to perform an operation corresponding to the recognized age group. Since the embodiment related to the age group recognition model 910 has been described with reference to FIG. 9, redundant descriptions will be omitted.

도 11은 본 개시의 일 실시예에 따른, 객체의 이미지가 입력된 경우, 전자 장치(100)가 객체 인식 모델 각각이 분류할 수 있는 클래스 데이터를 바탕으로 객체 인식 모델을 추가 학습시키는 실시예를 설명하기 위한 순서도이다. 11 illustrates an embodiment in which the electronic device 100 additionally learns an object recognition model based on class data that each object recognition model can classify when an image of an object is input according to an embodiment of the present disclosure. This is a flow chart for explanation.

우선, 동작 모드가 학습 모드인 경우에 카메라를 통해 새로운 객체 이미지를 획득하면, 전자 장치(100)는 새로운 객체의 특징 데이터를 획득할 수 있다(S1110). 구체적으로, 전자 장치(100)는 복수의 객체 인식 모델 중 하나를 이용하여 새로운 객체의 특징 데이터를 획득할 수 있다.First, when a new object image is acquired through a camera when the operation mode is a learning mode, the electronic device 100 may acquire feature data of the new object (S1110). Specifically, the electronic device 100 may acquire feature data of a new object by using one of a plurality of object recognition models.

그리고, 전자 장치(100)는 새로운 객체의 특징 데이터와 복수의 객체 인식 모델에 대한 정보를 바탕으로 복수의 객체 인식 모델 중 새로운 객체에 대응되는 개체 인식 모델을 결정할 수 있다. 구체적으로, 전자 장치(100)는 새로운 객체의 특징 데이터와 비휘발성 메모리(120)에 저장되어 있는 복수의 객체 인식 모델 각각에 포함된 클래스에 대한 데이터간의 유사도(Similarity)를 획득할 수 있다(S1120). 그리고, 전자 장치(100)는 복수의 객체 인식 모델 중 유사도가 가장 높은 클래스에 대한 데이터를 포함하는 객체 인식 모델을 새로운 객체에 대응되는 객체 인식 모델로 식별 및 결정할 수 있다(S1130).Further, the electronic device 100 may determine an object recognition model corresponding to the new object from among the plurality of object recognition models based on feature data of the new object and information on the plurality of object recognition models. Specifically, the electronic device 100 may acquire a similarity between feature data of a new object and data for a class included in each of a plurality of object recognition models stored in the nonvolatile memory 120 (S1120). ). Further, the electronic device 100 may identify and determine an object recognition model including data on a class having the highest similarity among the plurality of object recognition models as an object recognition model corresponding to the new object (S1130).

그리고, 전자 장치(100)는 새로운 객체에 대응되는 객체 인식 모델 및 상기 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델을 새로운 객체의 특징 데이터를 바탕으로 학습시킬 수 있다(S1140). 즉, 전자 장치(100)는 결정된 객체 인식 모델을 학습시켜 객체를 분류할 수 있는 클래스의 수를 증가시킬 수 있다. 구체적으로, 전자 장치(100)는 비휘발성 메모리(120)에 저장되어 있는 동작 모드 데이터를 통해 새로운 객체에 대응되는 객체 인식 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델을 식별할 수 있다. 그리고, 전자 장치(100)는 전체 객체 인식 모델이 아닌 새로운 객체에 대응되는 객체 인식 모델 및 상기 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델만을 학습시킬 수 있다. Further, the electronic device 100 may learn an object recognition model corresponding to a new object and an object recognition model that can be connected as a higher level of the model based on feature data of the new object (S1140). That is, the electronic device 100 may increase the number of classes capable of classifying an object by learning the determined object recognition model. Specifically, the electronic device 100 may identify an object recognition model that can be connected as a higher level of an object recognition model corresponding to a new object through operation mode data stored in the nonvolatile memory 120. In addition, the electronic device 100 may learn not the entire object recognition model, but only an object recognition model corresponding to a new object and an object recognition model that can be connected as a higher level of the model.

한편, 본 개시의 또 다른 실시예로, 전자 장치(100)는 새로운 객체의 특징 데이터를 바탕으로 새로운 객체에 대응되는 객체 인식 모델의 상위 레벨 및 하위 레벨로서 연결될 수 있는 객체 인식 모델을 동시에 또는 임계 시간 범위 내에 학습시킬 수 있다. 예를 들어, 새로운 객체에 대응되는 객체 인식 모델이 계층 구조 상 단말 노드(leaf node)에 배치될 모델이 아닌 경우, 전자 장치(100)는 동작 모드 데이터를 통해 새로운 객체에 대응되는 객체 인식 모델에 연결될 수 있는 상위 레벨 및 하위 레벨로서 연결될 수 있는 객체 인시 모델을 식별하고, 식별된 객체 인식 모델을 객체의 특징 데이터를 바탕으로 학습시킬 수 있다.Meanwhile, in another embodiment of the present disclosure, the electronic device 100 simultaneously or thresholds an object recognition model that can be connected as a higher level and a lower level of an object recognition model corresponding to a new object based on feature data of a new object. It can be learned within a range of time. For example, if an object recognition model corresponding to a new object is not a model to be placed in a leaf node in the hierarchical structure, the electronic device 100 may determine the object recognition model corresponding to the new object through operation mode data. An object perception model that can be connected as a higher level and a lower level that can be connected may be identified, and the identified object recognition model may be trained based on feature data of the object.

도 12는 본 개시의 일 실시예에 따른, 전자 장치(100)가 새로운 객체의 특징 데이터를 바탕으로 사용자로부터 선택된 객체 인식 모델을 학습시키는 과정을 설명하기 위한 순서도이다.12 is a flowchart illustrating a process in which the electronic device 100 learns an object recognition model selected by a user based on feature data of a new object according to an embodiment of the present disclosure.

우선, 동작 모드가 학습 모드인 경우, 전자 장치(100)는 휘발성 메모리(120)에 저장된 복수의 객체 인식 모델을 나타내는 UI를 표시할 수 있다(S1210). 구체적으로, 복수의 객체 인식 모델을 나타내는 UI에는 각 객체 인식 모델이 아이콘 또는 텍스트의 형태로 구현될 수 있으나 이에 한정되는 것은 아니다. 그리고, 일 실시예로, 전자 장치(100)는 복수의 개별적인 객체 인식 모델을 나타내는 UI를 표시할 수 있으나 이는 일 실시예에 불과하며, 전자 장치(100)는 복수의 고정된 객체 인식 모델을 나타내는 UI를 표시할 수 있다.First, when the operation mode is a learning mode, the electronic device 100 may display a UI representing a plurality of object recognition models stored in the volatile memory 120 (S1210). Specifically, in a UI representing a plurality of object recognition models, each object recognition model may be implemented in the form of an icon or text, but is not limited thereto. In addition, as an embodiment, the electronic device 100 may display a UI representing a plurality of individual object recognition models, but this is only an example, and the electronic device 100 may display a plurality of fixed object recognition models. UI can be displayed.

그리고, 카메라를 통해 새로운 객체 이미지가 획득되는 동안 사용자로부터 복수의 객체 인식 모델 중 새로운 객체에 대응되는 객체 인식 모델이 UI를 통해 선택되면, 전자 장치(100)는 새로운 객체 이미지를 선택된 객체 인식 모델에 입력하여 새로운 객체의 특징 데이터를 획득할 수 있다(S1220). 그리고, 사용자로부터 새로운 객체에 대응되는 클래스의 명칭이 입력되면, 전자 장치(100)는 획득된 특징 데이터를 명칭이 입력된 새로운 객체에 대응되는 클래스에 대한 데이터로 식별할 수 있다(S1230). 예를 들어, 사용자로부터 회피 대상 객체의 유형을 식별하는 모델이 선택되고, 새로운 객체에 대응되는 클래스의 명칭이 '공기 청정기'라고 입력되면, 전자 장치(100)는 새로운 객체에 대응되는 데이터를 선택된 모델을 통해 획득하고, 획득된 데이터를 '공기 청정기'라는 명칭의 클래스에 대한 데이터로 식별할 수 있다.In addition, when an object recognition model corresponding to a new object among a plurality of object recognition models is selected by the user while a new object image is acquired through the camera, the electronic device 100 selects the new object image to the selected object recognition model. By inputting, feature data of a new object may be obtained (S1220). In addition, when the name of the class corresponding to the new object is input by the user, the electronic device 100 may identify the acquired feature data as data on the class corresponding to the new object for which the name is input (S1230). For example, when a model identifying the type of an object to be avoided is selected from the user, and the name of the class corresponding to the new object is input as'air purifier', the electronic device 100 selects data corresponding to the new object. It is acquired through a model, and the acquired data can be identified as data for a class named'air purifier'.

그리고, 전자 장치(100)는 새로운 객체에 대응되는 클래스에 대한 데이터를 바탕으로 선택된 객체 인식 모델 및 선택된 객체 인식 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델을 학습시킬 수 있다(S1240). 구체적으로, 전자장치(100)는 동작 모드 데이터를 통해 선택된 객체 인식 모델의 상위 레벨로서 연결 될 수 있는 객체 인식 모델을 식별하고, 선택된 객체 인식 모델 및 식별된 객체 인식 모델을 모델을 새로운 객체에 대응되는 클래스에 대한 데이터를 바탕으로 학습시킬 수 있다.Further, the electronic device 100 may learn an object recognition model selected based on data on a class corresponding to a new object and an object recognition model that can be connected as a higher level of the selected object recognition model (S1240). Specifically, the electronic device 100 identifies an object recognition model that can be connected as a higher level of the selected object recognition model through operation mode data, and matches the selected object recognition model and the identified object recognition model to the new object. It can be trained based on the data for the class being used.

한편, 또 다른 실시예로, 선택된 객체 인식 모델이 말단 노드에 배치될 모델이 아닌 경우, 전자 장치(100)는 동작 모드 데이터를 통해 선택된 객체 인식 모델의 상위 레벨 및 하위 레벨로서 연결될 수 있는 객체 인식 모델을 식별할 수 있다. 그리고, 전자 장치(100)는 선택된 객체 인식 모델 및 상기 모델의 상위 레벨 및 하위 레벨로서 연결될 수 있는 객체 인식 모델을 새로운 객체에 대응되는 클래스에 대한 데이터를 바탕으로 학습시킬 수 있다.On the other hand, in another embodiment, when the selected object recognition model is not a model to be placed at the end node, the electronic device 100 recognizes an object that can be connected as a higher level and a lower level of the selected object recognition model through operation mode data. Model can be identified. In addition, the electronic device 100 may learn the selected object recognition model and an object recognition model that can be connected as upper and lower levels of the model based on data on a class corresponding to a new object.

한편, 본 개시에 첨부된 도면은 본 개시에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Meanwhile, the drawings attached to the present disclosure are not intended to limit the technology described in the present disclosure to a specific embodiment, and various modifications, equivalents, and/or alternatives of the embodiments of the present disclosure are provided. It should be understood to include. In connection with the description of the drawings, similar reference numerals may be used for similar elements.

본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present disclosure, expressions such as "have," "may have," "include," or "may include" are the presence of corresponding features (eg, elements such as numbers, functions, actions, or parts). And does not exclude the presence of additional features.

본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In the present disclosure, expressions such as "A or B," "at least one of A or/and B," or "one or more of A or/and B" may include all possible combinations of items listed together. . For example, "A or B," "at least one of A and B," or "at least one of A or B" includes (1) at least one A, (2) at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.

본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as "first," "second," "first," or "second," used in the present disclosure may modify various elements regardless of order and/or importance, and It is used to distinguish it from other components, but does not limit the components.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.Some component (eg, the first component) is “(functionally or communicatively) coupled with/to)” to another component (eg, the second component) or “ When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or may be connected through another component (eg, a third component). On the other hand, when a component (eg, a first component) is referred to as being “directly connected” or “directly connected” to another component (eg, a second component), the component and the It may be understood that no other component (eg, a third component) exists between the different components.

본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 부프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression "configured to (configured to)" used in the present disclosure is, for example, "suitable for," "having the capacity to" depending on the situation. ," "designed to," "adapted to," "made to," or "capable of". The term "configured to (or set)" may not necessarily mean only "specifically designed to" in hardware. Instead, in some situations, the expression "a device configured to" may mean that the device "can" along with other devices or parts. For example, the phrase "a subprocessor configured (or configured) to perform A, B, and C" refers to a dedicated processor (eg, an embedded processor) for performing the operation, or executing one or more software programs stored in a memory device. By doing so, it may mean a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.

본 개시의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 서버, PDA, 의료기기, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, 냉장고, 에어컨, 공기 청정기, 셋톱 박스, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM) 중 적어도 하나를 포함할 수 있다.An electronic device according to various embodiments of the present disclosure may include, for example, at least one of a smartphone, a tablet PC, a desktop PC, a laptop PC, a netbook computer, a server, a PDA, a medical device, or a wearable device. In some embodiments, the electronic device may include at least one of, for example, a television, a refrigerator, an air conditioner, an air purifier, a set-top box, and a media box (eg, Samsung HomeSyncTM, Apple TVTM, or Google TVTM).

한편, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. 이하에서는 도면을 참조하여 본 개시에 대해 더욱 상세히 설명하도록 한다.Meanwhile, the term user may refer to a person using an electronic device or a device (eg, an artificial intelligence electronic device) using an electronic device. Hereinafter, the present disclosure will be described in more detail with reference to the drawings.

본 개시의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(100))를 포함할 수 있다. 상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적은 저장매체'는 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.Various embodiments of the present disclosure may be implemented as software including instructions stored in a machine-readable storage medium (eg, a computer). The device receives instructions stored from the storage medium. A device capable of calling and operating according to the called command, may include an electronic device (eg, the electronic device 100) according to the disclosed embodiments. When the command is executed by a processor, the processor directly, or A function corresponding to the instruction may be performed using other components under the control of the processor, and the instruction may include a code generated or executed by a compiler or an interpreter. It can be provided in the form of a non-transitory storage medium, where the term'non-transitory storage medium' means that it does not contain a signal and is tangible, but the data is semi-permanent in the storage medium. Or, it does not distinguish that the data is temporarily stored, for example, the'non-transitory storage medium' may include a buffer in which data is temporarily stored.

일 실시 예에 따르면, 본 개시에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예로, 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an embodiment, a method according to various embodiments disclosed in the present disclosure may be provided by being included in a computer program product. Computer program products can be traded between sellers and buyers as commodities. The computer program product may be distributed online in the form of a device-readable storage medium (eg, compact disc read only memory (CD-ROM)) or through an application store (eg, Play StoreTM). In the case of online distribution, at least a portion of the computer program product (e.g., downloadable app) is at least temporarily stored in a storage medium such as a server of a manufacturer, a server of an application store, or a memory of a relay server, or temporarily Can be created with

다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the constituent elements (eg, modules or programs) according to various embodiments may be composed of a singular or plural entity, and some sub-elements of the above-described sub-elements are omitted, or other sub-elements are various. It may be further included in the embodiment. Alternatively or additionally, some constituent elements (eg, a module or a program) may be integrated into a single entity, and functions performed by each corresponding constituent element prior to the consolidation may be performed identically or similarly. Operations performed by modules, programs, or other components according to various embodiments may be sequentially, parallel, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added. I can.

110: 카메라 120:비휘발성 메모리
130: 휘발성 메모리 140: 프로세서
110: camera 120: non-volatile memory
130: volatile memory 140: processor

Claims (20)

전자 장치에 있어서,
카메라;
적어도 하나의 인스트럭션(Instruction) 및 복수의 객체 인식 모델을 저장하는 비휘발성 메모리;
휘발성 메모리; 및
상기 비휘발성 메모리, 상기 휘발성 메모리 및 상기 카메라와 연결되어 상기 전자 장치를 제어하는 프로세서;를 포함하고,
상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함으로써,
상기 전자 장치의 동작 모드가 결정되면, 상기 복수의 객체 인식 모델 중 상기 결정된 동작 모드에 대응되는 계층 구조(hierarchy structure)를 가지는 적어도 하나의 객체 인식 모델을 상기 휘발성 메모리에 로딩하고,
상기 카메라를 통해 획득한 객체 이미지를 상기 로딩된 객체 인식 모델에 입력하여 상기 객체에 대한 정보를 획득하고,
상기 객체에 대한 정보를 바탕으로 상기 전자 장치의 동작을 결정하는 전자 장치.
In the electronic device,
camera;
A nonvolatile memory for storing at least one instruction and a plurality of object recognition models;
Volatile memory; And
A processor connected to the nonvolatile memory, the volatile memory, and the camera to control the electronic device; and
The processor, by executing the at least one instruction,
When the operation mode of the electronic device is determined, at least one object recognition model having a hierarchy structure corresponding to the determined operation mode among the plurality of object recognition models is loaded into the volatile memory,
Inputting the object image acquired through the camera into the loaded object recognition model to obtain information on the object,
An electronic device that determines an operation of the electronic device based on information on the object.
제1항에 있어서,
상기 프로세서는,
상기 동작모드가 제1 동작 모드로 결정되면, 상기 복수의 객체 인식 모델 중 상기 객체가 회피 대상인지 여부를 식별하는 제1 레벨의 객체 인식 모델을 상기 휘발성 메모리에 로딩하고,
상기 제1 레벨의 객체 인식 모델에 상기 객체 이미지를 입력하여 획득된 상기 객체의 특징 데이터를 바탕으로 상기 객체가 회피 대상인지 여부를 식별하는 전자 장치.
The method of claim 1,
The processor,
When the operation mode is determined as the first operation mode, an object recognition model of a first level for identifying whether the object is an avoidance object among the plurality of object recognition models is loaded into the volatile memory,
An electronic device that identifies whether the object is a target to be avoided based on feature data of the object obtained by inputting the object image to the first level object recognition model.
제2항에 있어서,
상기 프로세서는,
상기 동작모드가 제2 동작 모드로 결정되면, 상기 복수의 객체 인식 모델 중 상기 제1 레벨의 객체 인식 모델 및 상기 제1 레벨의 하위 레벨로서 상기 객체의 유형을 식별하는 제2 레벨의 적어도 하나의 객체 인식 모델을 상기 휘발성 메모리에 로딩하고,
상기 객체가 회피 대상인지 여부를 바탕으로 상기 제2 레벨의 적어도 하나의 객체 인식 모델 중 상기 객체의 특징 데이터가 입력될 객체 인식 모델을 식별하는 전자 장치.
The method of claim 2,
The processor,
When the operation mode is determined as the second operation mode, the object recognition model of the first level and at least one of the second level identifying the type of the object as a lower level of the first level among the plurality of object recognition models Load an object recognition model into the volatile memory,
An electronic device for identifying an object recognition model to which feature data of the object is to be input from among at least one object recognition model of the second level, based on whether the object is a target to be avoided.
제3항에 있어서,
상기 프로세서는,
상기 제1 레벨의 객체 인식 모델을 통해 획득된 객체의 특징 데이터를 상기 결정된 제2 레벨의 객체 인식 모델에 입력하여 상기 객체의 유형을 식별하는 전자 장치.
The method of claim 3,
The processor,
An electronic device for identifying the type of the object by inputting feature data of the object acquired through the first level object recognition model into the determined second level object recognition model.
제4항에 있어서,
상기 프로세서는,
상기 식별된 객체가 제2 동작 모드에 대응되는 경우, 상기 제2 동작 모드에 대응되는 동작을 수행하도록 상기 전자 장치를 제어하는 전자 장치.
The method of claim 4,
The processor,
When the identified object corresponds to a second operation mode, the electronic device controls the electronic device to perform an operation corresponding to the second operation mode.
제4항에 있어서,
상기 프로세서는,
상기 동작 모드가 제3 동작 모드로 결정되면, 상기 복수의 객체 모델 중 상기 제1 및 제2 레벨 객체 인식 모델 및 상기 제2 레벨의 하위 레벨로서 사람의 얼굴을 인식할 수 있는 제3 레벨의 적어도 하나의 객체 인식 모델을 상기 휘발성 메모리에 로딩하는 전자 장치.
The method of claim 4,
The processor,
When the operation mode is determined as the third operation mode, the first and second level object recognition models among the plurality of object models and at least a third level capable of recognizing a human face as a lower level of the second level An electronic device that loads one object recognition model into the volatile memory.
제6항에 있어서,
상기 프로세서는,
상기 제2 레벨의 객체 인식 모델을 통해 상기 객체의 유형이 사람이라고 식별되면, 상기 객체의 특징 데이터를 상기 제3 레벨의 객체 인식 모델에 입력하여 상기 객체 이미지에 포함된 사람 얼굴이 기등록된 사람 얼굴인지 여부를 식별하는 전자 장치.
The method of claim 6,
The processor,
When the type of the object is identified as human through the second-level object recognition model, a person whose human face included in the object image is pre-registered by inputting feature data of the object into the third-level object recognition model An electronic device that identifies whether it is a face.
제7항에 있어서,
상기 프로세서는,
상기 사람 얼굴이 기등록된 사람 얼굴이 아니라고 식별되면, 알림 메시지를 제공하고,
상기 사람 얼굴이 기등록된 사람 얼굴이라고 식별되면, 상기 식별된 사람을 회피하여 이동하도록 상기 전자 장치를 제어하는 전자 장치.
The method of claim 7,
The processor,
When it is identified that the human face is not a pre-registered human face, a notification message is provided,
When the human face is identified as a pre-registered human face, the electronic device controls the electronic device to move while avoiding the identified person.
제1항에 있어서,
상기 프로세서는,
상기 동작 모드가 학습 모드인 경우, 상기 카메라를 통해 새로운 객체 이미지를 획득하면 상기 새로운 객체의 특징 데이터를 획득하고,
상기 새로운 객체의 특징 데이터와 상기 복수의 객체 인식 모델에 대한 정보를 바탕으로 상기 복수의 객체 인식 모델 중 상기 새로운 객체에 대응되는 객체 인식 모델을 결정하고,
상기 새로운 객체의 특징 데이터를 바탕으로 상기 결정된 객체 인식 모델 및 상기 결정된 객체 인식 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델을 학습시키는 전자 장치.
The method of claim 1,
The processor,
When the operation mode is a learning mode, when a new object image is obtained through the camera, feature data of the new object is obtained,
Determine an object recognition model corresponding to the new object from among the plurality of object recognition models based on feature data of the new object and information on the plurality of object recognition models,
An electronic device that trains the determined object recognition model based on feature data of the new object and an object recognition model that can be connected as a higher level of the determined object recognition model.
제1항에 있어서,
디스플레이;를 포함하고,
상기 프로세서는,
상기 동작 모드가 학습 모드인 경우, 상기 저장된 복수의 객체 인식 모델을 나타내는 UI(User interface)를 표시하도록 상기 디스플레이를 제어하고,
상기 카메라를 통해 새로운 객체의 이미지가 획득되는 동안 사용자로부터 상기 새로운 객체에 대응되는 객체 인식 모델이 상기 UI를 통해 선택되면, 상기 새로운 객체 이미지를 상기 선택된 객체 인식 모델에 입력하여 상기 새로운 객체의 특징 데이터를 획득하고,
상기 사용자로부터 상기 새로운 객체에 대응되는 클래스의 명칭이 입력되면, 상기 새로운 객체의 특징 데이터를 상기 명칭이 입력된 새로운 객체에 대응되는 클래스에 대한 데이터로 식별하고,
상기 새로운 객체에 대응되는 클래스에 대한 데이터를 바탕으로 상기 선택된 객체 인식 모델 및 상기 선택된 객체 인식 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델을 학습시키는 전자 장치.
The method of claim 1,
Including; a display;
The processor,
When the operation mode is a learning mode, controlling the display to display a user interface (UI) representing the plurality of stored object recognition models,
When an object recognition model corresponding to the new object is selected by the user through the UI while the image of a new object is acquired through the camera, the new object image is input to the selected object recognition model, and feature data of the new object To get
When a name of a class corresponding to the new object is input from the user, feature data of the new object is identified as data on a class corresponding to the new object with the name input,
An electronic device that trains the selected object recognition model and an object recognition model that can be connected as a higher level of the selected object recognition model based on data on a class corresponding to the new object.
복수의 객체 인식 모델을 저장하는 비휘발성 메모리 및 휘발성 메모리를 저장하는 전자 장치의 제어 방법에 있어서,
상기 전자 장치의 동작 모드가 결정되면, 상기 복수의 객체 인식 모델 중 상기 결정된 동작 모드에 대응되는 계층 구조를 가지는 적어도 하나의 객체 인식 모델을 상기 휘발성 메모리에 로딩하는 단계;
카메라를 통해 획득한 객체 이미지를 상기 로딩된 객체 인식 모델에 입력하여 상기 객체에 대한 정보를 획득하는 단계; 및
상기 객체에 대한 정보를 바탕으로 상기 전자 장치의 동작을 결정하는 단계;를 포함하는 전자 장치의 제어 방법.
In the nonvolatile memory storing a plurality of object recognition models and a control method of an electronic device storing the volatile memory,
When an operation mode of the electronic device is determined, loading at least one object recognition model having a hierarchical structure corresponding to the determined operation mode among the plurality of object recognition models into the volatile memory;
Inputting an object image acquired through a camera into the loaded object recognition model to obtain information on the object; And
And determining an operation of the electronic device based on the information on the object.
제11항에 있어서,
상기 로딩하는 단계는,
상기 동작모드가 제1 동작 모드로 결정되면, 상기 복수의 객체 인식 모델 중 상기 객체가 회피 대상인지 여부를 식별하는 제1 레벨의 객체 인식 모델을 상기 휘발성 메모리에 로딩하는 단계; 및
상기 제1 레벨의 객체 인식 모델에 상기 객체 이미지를 입력하여 획득한 상기 객체의 특징 데이터를 바탕으로 상기 객체가 회피 대상인지 여부를 식별하는 단계;를 포함하는 전자 장치의 제어 방법.
The method of claim 11,
The loading step,
If the operation mode is determined as the first operation mode, loading an object recognition model of a first level to identify whether the object is an avoidance object among the plurality of object recognition models into the volatile memory; And
And identifying whether the object is a target to be avoided based on feature data of the object obtained by inputting the object image to the object recognition model of the first level.
제12항에 있어서,
상기 로딩하는 단계는,
상기 동작모드가 제2 동작 모드로 결정되면, 상기 복수의 객체 인식 모델 중 상기 제1 레벨의 객체 인식 모델 및 상기 제1 레벨의 하위 레벨로서 상기 객체의 유형을 식별하는 제2 레벨의 적어도 하나의 객체 인식 모델을 상기 휘발성 메모리에 로딩하는 단계; 및
상기 객체가 회피 대상인지 여부를 바탕으로 상기 제2 레벨의 적어도 하나의 객체 인식 모델 중 상기 객체의 특징 데이터가 입력될 객체 인식 모델을 식별하는 단계;를 포함하는 전자 장치의 제어 방법
The method of claim 12,
The loading step,
When the operation mode is determined as the second operation mode, the object recognition model of the first level and at least one of the second level identifying the type of the object as a lower level of the first level among the plurality of object recognition models Loading an object recognition model into the volatile memory; And
Identifying an object recognition model to which feature data of the object is to be input from among at least one object recognition model of the second level based on whether the object is a target to be avoided;
제13항에 있어서,
상기 결정하는 단계는,
상기 제1 레벨의 객체 인식 모델을 통해 획득된 객체의 특징 데이터를 상기 결정된 제2 레벨의 객체 인식 모델에 입력하여 상기 객체의 유형을 식별하는 단계;를 포함하는 전자 장치의 제어 방법.
The method of claim 13,
The determining step,
And identifying the type of the object by inputting feature data of the object acquired through the first level object recognition model into the determined second level object recognition model.
제14항에 있어서,
상기 식별하는 단계는,
상기 식별된 객체가 제2 동작 모드에 대응되는 경우, 상기 제2 동작 모드에 대응되는 동작을 수행하도록 상기 전자 장치를 제어하는 단계;를 포함하는 전자 장치의 제어 방법.
The method of claim 14,
The identifying step,
And when the identified object corresponds to a second operation mode, controlling the electronic device to perform an operation corresponding to the second operation mode.
제14항에 있어서,
상기 로딩하는 단계는,
상기 동작 모드가 제3 동작 모드로 결정되면, 상기 복수의 객체 모델 중 상기 제1 및 제2 레벨 객체 인식 모델 및 상기 제2 레벨의 하위 레벨로서 사람의 얼굴을 인식할 수 있는 제3 레벨의 적어도 하나의 객체 인식 모델을 상기 휘발성 메모리에 로딩하는 단계;를 포함하는 전자 장치의 제어 방법.
The method of claim 14,
The loading step,
When the operation mode is determined as the third operation mode, the first and second level object recognition models among the plurality of object models and at least a third level capable of recognizing a human face as a lower level of the second level And loading one object recognition model into the volatile memory.
제16항에 있어서,
상기 결정하는 단계는,
상기 제2 레벨의 객체 인식 모델을 통해 상기 객체의 유형이 사람이라고 식별되면, 상기 객체의 특징 데이터를 상기 제3 레벨의 객체 인식 모델에 입력하여 상기 객체 이미지에 포함된 사람 얼굴이 기등록된 사람 얼굴인지 여부를 식별하는 단계;를 포함하는 전자 장치의 제어 방법.
The method of claim 16,
The determining step,
When the type of the object is identified as human through the second-level object recognition model, a person whose human face included in the object image is pre-registered by inputting feature data of the object into the third-level object recognition model The method of controlling an electronic device comprising: identifying whether it is a face or not.
제17항에 있어서,
상기 결정하는 단계는,
상기 사람 얼굴이 기등록된 사람 얼굴이 아니라고 식별되면, 알림 메시지를 제공하고,
상기 사람 얼굴이 기등록된 사람 얼굴이라고 식별되면, 상기 식별된 사람을 회피하여 이동하도록 상기 전자 장치를 제어하는 단계;를 포함하는 전자 장치의 제어 방법.
The method of claim 17,
The determining step,
When it is identified that the human face is not a pre-registered human face, a notification message is provided,
And if the human face is identified as a pre-registered human face, controlling the electronic device to move while avoiding the identified person.
제11항에 있어서,
상기 로딩하는 단계는,
상기 동작 모드가 학습 모드인 경우, 상기 카메라를 통해 새로운 객체 이미지를 획득하면 상기 새로운 객체의 특징 데이터를 획득하는 단계;
상기 새로운 객체의 특징 데이터와 상기 복수의 객체 인식 모델에 대한 정보를 바탕으로 상기 복수의 객체 인식 모델 중 상기 새로운 객체에 대응되는 객체 인식 모델을 결정하는 단계; 및
상기 새로운 객체의 특징 데이터를 바탕으로 상기 결정된 객체 인식 모델 및 상기 결정된 객체 인식 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델을 학습시키는 단계;를 포함하는 전자 장치의 제어 방법.
The method of claim 11,
The loading step,
Acquiring feature data of the new object when a new object image is acquired through the camera when the operation mode is a learning mode;
Determining an object recognition model corresponding to the new object from among the plurality of object recognition models based on feature data of the new object and information on the plurality of object recognition models; And
And learning an object recognition model that can be connected as a higher level of the determined object recognition model and the determined object recognition model based on the feature data of the new object.
제11항에 있어서,
상기 로딩하는 단계는,
상기 동작 모드가 학습 모드인 경우, 상기 저장된 복수의 객체 인식 모델을 나타내는 UI(User interface)를 표시하는 단계;
상기 카메라를 통해 새로운 객체의 이미지가 획득되는 동안 사용자로부터 상기 새로운 객체에 대응되는 객체 인식 모델이 상기 UI를 통해 선택되면, 상기 새로운 객체 이미지를 상기 선택된 객체 인식 모델에 입력하여 상기 새로운 객체의 특징 데이터를 획득하는 단계;
상기 사용자로부터 상기 새로운 객체에 대응되는 클래스의 명칭이 입력되면, 상기 새로운 객체의 특징 데이터를 상기 명칭이 입력된 새로운 객체에 대응되는 클래스에 대한 데이터로 식별하는 단계; 및
상기 새로운 객체에 대응되는 클래스에 대한 데이터를 바탕으로 상기 선택된 객체 인식 모델 및 상기 선택된 객체 인식 모델의 상위 레벨로서 연결될 수 있는 객체 인식 모델을 학습시키는 단계;를 포함하는 전자 장치의 제어 방법.
The method of claim 11,
The loading step,
When the operation mode is a learning mode, displaying a user interface (UI) representing the stored plurality of object recognition models;
When an object recognition model corresponding to the new object is selected by the user through the UI while the image of a new object is acquired through the camera, the new object image is input to the selected object recognition model, and feature data of the new object Obtaining a;
When a name of a class corresponding to the new object is input from the user, identifying characteristic data of the new object as data on a class corresponding to the new object to which the name is input; And
And learning an object recognition model that can be connected as a higher level of the selected object recognition model and the selected object recognition model based on data on a class corresponding to the new object.
KR1020190160075A 2019-10-23 2019-12-04 Electronic device and method for controlling the electronic device thereof KR20210048385A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/035,986 US11651621B2 (en) 2019-10-23 2020-09-29 Electronic device and method for controlling the electronic device
EP20879911.4A EP3973375A4 (en) 2019-10-23 2020-10-08 Electronic device and method for controlling the electronic device
CN202080072583.2A CN114586009A (en) 2019-10-23 2020-10-08 Electronic device and method for controlling electronic device
PCT/KR2020/013711 WO2021080220A1 (en) 2019-10-23 2020-10-08 Electronic device and method for controlling the electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962924853P 2019-10-23 2019-10-23
US62/924,853 2019-10-23

Publications (1)

Publication Number Publication Date
KR20210048385A true KR20210048385A (en) 2021-05-03

Family

ID=75911022

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190160075A KR20210048385A (en) 2019-10-23 2019-12-04 Electronic device and method for controlling the electronic device thereof

Country Status (1)

Country Link
KR (1) KR20210048385A (en)

Similar Documents

Publication Publication Date Title
US11922322B2 (en) Exponential modeling with deep learning features
US20200242771A1 (en) Semantic image synthesis for generating substantially photorealistic images using neural networks
US11222413B2 (en) Method for correcting image by device and device therefor
KR102615597B1 (en) Electronic device and Method for controlling the electronic device
KR102444932B1 (en) Electronic device and Method for controlling the electronic device
WO2019007214A1 (en) Recognition and reconstruction of objects with partial appearance
US20200242736A1 (en) Method for few-shot unsupervised image-to-image translation
CN111418198B (en) Electronic device for providing text-related image and method of operating the same
KR20200046188A (en) An electronic device for reconstructing an artificial intelligence model and its control method
US20210217409A1 (en) Electronic device and control method therefor
US20190228294A1 (en) Method and system for processing neural network model using plurality of electronic devices
US20240095143A1 (en) Electronic device and method for controlling same
KR20190105403A (en) An external device capable of being combined with an electronic device, and a display method thereof.
US20220036152A1 (en) Electronic apparatus and method for controlling thereof
KR20210012730A (en) Learning method of artificial intelligence model and electronic apparatus
KR102398386B1 (en) Method of filtering a plurality of messages and apparatus thereof
CN113795880A (en) Electronic device and control method thereof
US20200057758A1 (en) Server and control method thereof
US11651621B2 (en) Electronic device and method for controlling the electronic device
KR20210048385A (en) Electronic device and method for controlling the electronic device thereof
US20230342108A1 (en) Enhanced computing device representation of audio
KR102440963B1 (en) Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium
CN113906447A (en) Electronic device and control method thereof
KR20210033837A (en) Electronic device and method for controlling the electronic device thereof
KR102158989B1 (en) Building method and building apparatus of memory model

Legal Events

Date Code Title Description
A201 Request for examination