KR20220169445A - Electronic device and method for detecting an object in an image - Google Patents
Electronic device and method for detecting an object in an image Download PDFInfo
- Publication number
- KR20220169445A KR20220169445A KR1020220075019A KR20220075019A KR20220169445A KR 20220169445 A KR20220169445 A KR 20220169445A KR 1020220075019 A KR1020220075019 A KR 1020220075019A KR 20220075019 A KR20220075019 A KR 20220075019A KR 20220169445 A KR20220169445 A KR 20220169445A
- Authority
- KR
- South Korea
- Prior art keywords
- bounding box
- sub
- bounding
- reference value
- electronic device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 27
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000011017 operating method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/23—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on positionally close patterns or neighbourhood relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
Description
본 개시의 다양한 실시 예들은 이미지 내의 객체를 검출하기 위한 전자 장치 및 방법에 관한 것이다.Various embodiments of the present disclosure relate to an electronic device and method for detecting an object in an image.
영상 내에서 객체를 검출하는 영상 인식 또는 객체 검출 시스템은, 디지털 영상 또는 비디오 프레임으로부터 단일 객체 또는 복수의 객체들을 검출할 수 있다. 여기서 객체 검출은, 영상 내에서의 객체의 위치 및 크기를 경계 박스(bounding box)의 형태로 추정하고, 주어진 영상 내에서 특정 객체를 분류(classification)하는 것을 의미할 수 있다. An image recognition or object detection system that detects an object within an image may detect a single object or multiple objects from a digital image or video frame. Here, object detection may mean estimating the location and size of an object in an image in the form of a bounding box and classifying a specific object in a given image.
다만 빠른 처리속도를 위해 경량화된 딥러닝 모델을 이용하는 경우, 종종 주어진 영상 내 객체를 오분류하는 경우가 다수 있다. 예를 들어, 사람(person)을 포함하는 영상 내에서, 사람 신체의 일부분인 손(hand), 얼굴(face) 등을 사람 신체의 전부로 인식하여 사람(person)으로 오분류하는 불편함이 있었다.However, when using a lightweight deep learning model for fast processing speed, there are often many cases in which objects in a given image are misclassified. For example, in an image including a person, there was inconvenience in misclassifying a part of a person's body as a person by recognizing a hand, face, etc. as the whole of the person's body. .
개시된 다양한 실시 예들은, 객체와 객체의 일부분의 관계를 이용하여, 객체를 보다 정확하게 인식하는 전자 장치 및 방법을 제공할 수 있다.Various disclosed embodiments may provide an electronic device and method for more accurately recognizing an object by using a relationship between an object and a part of the object.
본 개시의 일 실시 예에 따른, 인공지능 모델을 이용하여 이미지 내의 객체를 검출하기 위한 객체 검출(object detection) 방법은, 제1 객체 및 제1 객체의 일부인 제2 객체를 포함하는 객체를 포함하는 이미지를 획득하는 단계, 이미지에 포함된 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하는 단계, 이미지에 포함된 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하는 단계, 제1 서브 바운딩 박스와 제1 바운딩 박스 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득하는 단계, 복수의 제1 바운딩 박스들 중, 제1 서브 바운딩 박스와의 제1 오버랩 스코어가 제1 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하는 단계, 및 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체를 검출하는 단계를 포함한다.According to an embodiment of the present disclosure, an object detection method for detecting an object in an image using an artificial intelligence model includes an object including a first object and a second object that is a part of the first object. Acquiring an image; generating a plurality of first bounding boxes corresponding to a first object included in the image; generating a first sub-bounding box corresponding to a second object included in the image; Obtaining a first overlap score related to the degree of overlap between the bounding boxes and the first bounding boxes, wherein, among a plurality of first bounding boxes, a first overlap score with a first sub-bounding box exceeds a first threshold value. The method includes removing a first bounding box of and detecting a first object through a first bounding box that is not removed among a plurality of first bounding boxes.
본 개시의 일 실시 예에서, 객체는 제1 객체의 일부인 제3 객체를 더 포함하고, 이미지에 포함된 제3 객체에 대응되는 제2 서브 바운딩 박스를 생성하는 단계, 및 제2 서브 바운딩 박스와 제1 바운딩 박스 간의 겹치는 정도에 관한 제2 오버랩 스코어를 획득하는 단계, 및 복수의 제1 바운딩 박스들 중, 제2 서브 바운딩 박스와의 제2 오버랩 스코어가 제2 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하는 단계를 더 포함할 수 있다.In one embodiment of the present disclosure, the object further includes a third object that is a part of the first object, and generating a second sub-bounding box corresponding to the third object included in the image; and obtaining a second overlap score related to the degree of overlap between first bounding boxes; and, among a plurality of first bounding boxes, a second overlap score with a second sub-bounding box exceeds a second threshold value. 1 The step of removing the bounding box may be further included.
본 개시의 일 실시 예에서, 복수의 제1 바운딩 박스들은 제1 기준 바운딩 박스를 포함하고, 제1 기준 바운딩 박스를 제외한 복수의 제1 바운딩 박스들 중 하나와 제1 기준 바운딩 박스 간의 겹치는 정도에 관한 제3 오버랩 스코어를 획득하는 단계, 복수의 제1 바운딩 박스들 중, 제1 기준 바운딩 박스와의 제3 오버랩 스코어가 제3 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하는 단계를 더 포함할 수 있다.In one embodiment of the present disclosure, the plurality of first bounding boxes include a first reference bounding box, and the degree of overlap between one of the plurality of first bounding boxes excluding the first reference bounding box and the first reference bounding box obtaining a third overlap score for the first bounding box; removing at least one first bounding box whose third overlap score with the first reference bounding box exceeds a third threshold value, among the plurality of first bounding boxes; can include
본 개시의 일 실시 예에서, 복수의 제1 바운딩 박스들은, 제1 객체를 특정하는 제1 클래스로 레이블링되고, 제1 서브 바운딩 박스는, 제2 객체를 특정하는 제2 클래스로 레이블링될 수 있다.In an embodiment of the present disclosure, a plurality of first bounding boxes may be labeled as a first class specifying a first object, and a first sub-bounding box may be labeled as a second class specifying a second object. .
본 개시의 일 실시 예에서, 제1 클래스는 사람(person) 클래스를 의미하고, 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미할 수 있다.In one embodiment of the present disclosure, the first class may mean a person class, and the second class may mean at least one of a face class, an ear class, and a hand class. .
또한, 본 개시의 일 실시 예에 따른 인공지능 모델을 이용하여 이미지 내의 객체를 검출하기 위한 객체 검출 방법은, 제1 객체 및 제1 객체의 일부인 제2 객체를 포함하는 객체를 포함하는 이미지를 획득하는 단계, 이미지에 포함된 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하는 단계, 이미지에 포함된 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하는 단계, 제1 바운딩 박스 내부 영역에 포함되는 객체가 제1 객체와 일치할 확률에 관한 신뢰도를 획득하는 단계, 제1 바운딩 박스 안에 제1 서브 바운딩 박스가 배치되는지 여부에 따라, 제1 바운딩 박스에 대응되는 기준값을 획득하는 단계, 적어도 하나의 제1 바운딩 박스의 신뢰도가 적어도 하나의 제1 바운딩 박스에 대응되는 기준값을 넘어서지 못하는, 적어도 하나의 제1 바운딩 박스를 제거하는 단계, 및 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체를 검출하는 단계를 포함한다.In addition, an object detection method for detecting an object in an image using an artificial intelligence model according to an embodiment of the present disclosure obtains an image including an object including a first object and a second object that is a part of the first object. generating a plurality of first bounding boxes corresponding to a first object included in the image, generating a first sub-bounding box corresponding to a second object included in the image, an area inside the first bounding box Obtaining a reliability of a probability that an object included in corresponds to a first object, obtaining a reference value corresponding to the first bounding box according to whether a first sub-bounding box is disposed in the first bounding box, removing at least one first bounding box, the reliability of which does not exceed a reference value corresponding to the at least one first bounding box, and a first among a plurality of first bounding boxes not removed. 1 detecting the first object through the bounding box.
본 개시의 일 실시 예에서, 기준값은 제1 기준값 및 제2 기준값을 포함하고, 기준값을 획득하는 단계는, 제1 서브 바운딩 박스가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제1 기준값을 획득하는 단계, 및 제1 서브 바운딩 박스가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제2 기준값을 획득하는 단계를 포함하고, 제1 기준값은 제2 기준값보다 낮을 수 있다.In one embodiment of the present disclosure, the reference value includes a first reference value and a second reference value, and obtaining the reference value includes a first sub-bounding box corresponding to at least one first bounding box including a first sub-bounding box therein. The method may include obtaining a reference value and obtaining a second reference value corresponding to at least one first bounding box that does not contain a first sub-bounding box, wherein the first reference value may be lower than the second reference value. .
본 개시의 일 실시 예에서, 복수의 제1 바운딩 박스들은, 제1 객체를 특정하는 제1 클래스로 레이블링되고, 제1 서브 바운딩 박스는, 제2 객체를 특정하는 제2 클래스로 레이블될 수 있다.In one embodiment of the present disclosure, a plurality of first bounding boxes may be labeled as a first class specifying a first object, and a first sub-bounding box may be labeled as a second class specifying a second object. .
본 개시의 일 실시 예에서, 제1 클래스는 사람(person) 클래스를 의미하고, 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미할 수 있다.In one embodiment of the present disclosure, the first class may mean a person class, and the second class may mean at least one of a face class, an ear class, and a hand class. .
본 개시의 일 실시 예에서, 객체는 제1 객체의 일부인 제3 객체를 더 포함하고, 이미지에 포함된 제3 객체에 대응되는 제2 서브 바운딩 박스를 생성하는 단계, 제2 서브 바운딩 박스가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제3 기준값을 획득하는 단계, 제2 서브 바운딩 박스가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제4 기준값을 획득하는 단계, 적어도 하나의 제1 바운딩 박스의 신뢰도가 적어도 하나의 제1 바운딩 박스에 대응되는 제3 기준값 및 제4 기준값 중 하나를 넘어서지 못하는, 적어도 하나의 제1 바운딩 박스를 제거하는 단계를 더 포함하고, 제3 기준값은 제4 기준값보다 낮을 수 있다.In one embodiment of the present disclosure, the object further includes a third object that is a part of the first object, and generating a second sub-bounding box corresponding to the third object included in the image, the second sub-bounding box inside the Obtaining a third reference value corresponding to at least one first bounding box included in ; Obtaining a fourth reference value corresponding to at least one first bounding box not included in a second sub-bounding box; The method further includes removing at least one first bounding box whose reliability of the at least one first bounding box does not exceed one of a third reference value and a fourth reference value corresponding to the at least one first bounding box; The third reference value may be lower than the fourth reference value.
또한, 본 개시의 일 실시 예에 따른 인공지능 모델을 이용하여 이미지 내의 객체를 검출하기 위한 전자 장치는, 하나 이상의 인스트럭션을 저장하는 메모리, 및 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 제1 객체 및 제1 객체의 일부인 제2 객체를 포함하는 객체를 포함하는 이미지를 획득하고, 이미지에 포함된 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하고, 이미지에 포함된 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하고, 제1 서브 바운딩 박스와 제1 바운딩 박스 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득하고, 복수의 제1 바운딩 박스들 중, 제1 서브 바운딩 박스와의 제1 오버랩 스코어가 제1 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하고, 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체를 검출한다.In addition, an electronic device for detecting an object in an image using an artificial intelligence model according to an embodiment of the present disclosure includes a memory for storing one or more instructions, and at least one processor for executing the one or more instructions stored in the memory. and, by executing one or more instructions, the at least one processor acquires an image including an object including a first object and a second object that is part of the first object, and corresponds to the first object included in the image. A plurality of first bounding boxes are generated, a first sub-bounding box corresponding to a second object included in the image is generated, and a first overlap score regarding the degree of overlap between the first sub-bounding boxes is obtained. and removing at least one first bounding box whose first overlap score with the first sub-bounding box exceeds a first threshold value from among the plurality of first bounding boxes, and which is not removed from among the plurality of first bounding boxes. The first object is detected through the first bounding box that does not exist.
본 개시의 일 실시 예에서, 객체는 제1 객체의 일부인 제3 객체를 더 포함하고, 적어도 하나의 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 이미지에 포함된 제3 객체에 대응되는 제2 서브 바운딩 박스를 생성하고, 제2 서브 바운딩 박스와 제1 바운딩 박스 간의 겹치는 정도에 관한 제2 오버랩 스코어를 획득하고, 복수의 제1 바운딩 박스들 중, 제2 서브 바운딩 박스와의 제2 오버랩 스코어가 제2 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거할 수 있다.In an embodiment of the present disclosure, the object further includes a third object that is a part of the first object, and the at least one processor executes one or more instructions to generate a second sub-boundary corresponding to the third object included in the image. A box is generated, a second overlap score related to an overlapping degree between the second sub-bounding box and the first bounding box is obtained, and a second overlap score with the second sub-bounding box among the plurality of first bounding boxes is the first. At least one first bounding box exceeding 2 thresholds may be removed.
본 개시의 일 실시 예에서, 복수의 제1 바운딩 박스들은 제1 기준 바운딩 박스를 포함하고, 적어도 하나의 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 제1 기준 바운딩 박스를 제외한 복수의 제1 바운딩 박스들 중 하나와 제1 기준 바운딩 박스 간의 겹치는 정도에 관한 제3 오버랩 스코어를 획득하고, 복수의 제1 바운딩 박스들 중, 제1 기준 바운딩 박스와의 제3 오버랩 스코어가 제3 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거할 수 있다.In an embodiment of the present disclosure, the plurality of first bounding boxes include first reference bounding boxes, and at least one processor executes one or more instructions, thereby executing the plurality of first bounding boxes excluding the first reference bounding boxes. A third overlap score related to an overlap between one of the plurality of first bounding boxes and the first reference bounding box is obtained, and a third overlap score with the first reference bounding box among the plurality of first bounding boxes exceeds a third threshold value. One first bounding box may be removed.
본 개시의 일 실시 예에서, 복수의 제1 바운딩 박스들은, 제1 객체를 특정하는 제1 클래스로 레이블링되고, 제1 서브 바운딩 박스는, 제2 객체를 특정하는 제2 클래스로 레이블링될 수 있다.In an embodiment of the present disclosure, a plurality of first bounding boxes may be labeled as a first class specifying a first object, and a first sub-bounding box may be labeled as a second class specifying a second object. .
본 개시의 일 실시 예에서, 제1 클래스는 사람(person) 클래스를 의미하고, 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미할 수 있다.In one embodiment of the present disclosure, the first class may mean a person class, and the second class may mean at least one of a face class, an ear class, and a hand class. .
또한, 본 개시의 일 실시 예에 따른 인공지능 모델을 이용하여 이미지 내의 객체를 검출하기 위한 전자 장치는, 하나 이상의 인스트럭션을 저장하는 메모리, 및 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 제1 객체 및 제1 객체의 일부인 제2 객체를 포함하는 객체를 포함하는 이미지를 획득하고, 이미지에 포함된 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하고, 이미지에 포함된 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하고, 제1 바운딩 박스 내부 영역에 포함되는 객체가 제1 객체와 일치할 확률에 관한 신뢰도를 획득하고, 제1 바운딩 박스 안에 제1 서브 바운딩 박스가 배치되는지 여부에 따라, 제1 바운딩 박스에 대응되는 기준값을 획득하고, 적어도 하나의 제1 바운딩 박스의 신뢰도가 적어도 하나의 제1 바운딩 박스에 대응되는 기준값을 넘어서지 못하는, 적어도 하나의 제1 바운딩 박스를 제거하고, 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체를 검출한다.In addition, an electronic device for detecting an object in an image using an artificial intelligence model according to an embodiment of the present disclosure includes a memory for storing one or more instructions, and at least one processor for executing the one or more instructions stored in the memory. and, by executing one or more instructions, the at least one processor acquires an image including an object including a first object and a second object that is part of the first object, and corresponds to the first object included in the image. A plurality of first bounding boxes are generated, a first sub-bounding box corresponding to a second object included in the image is created, and confidence in the probability that an object included in the inner area of the first bounding box coincides with the first object Obtain a reference value corresponding to the first bounding box according to whether the first sub-bounding box is disposed in the first bounding box, and determine whether the reliability of the at least one first bounding box corresponds to at least one first bounding box. At least one first bounding box that does not exceed a reference value corresponding to is removed, and a first object is detected through a first bounding box that is not removed among a plurality of first bounding boxes.
본 개시의 일 실시 예에서, 기준값은 제1 기준값 및 제2 기준값을 포함하고, 적어도 하나의 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 제1 서브 바운딩 박스가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제1 기준값을 획득하고, 제1 서브 바운딩 박스가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제2 기준값을 획득하고, 제1 기준값은 제2 기준값보다 낮을 수 있다.In an embodiment of the present disclosure, the reference value includes a first reference value and a second reference value, and at least one processor executes one or more instructions to determine at least one first bounding box including a first subbounding box therein. A first reference value corresponding to a box is obtained, and a second reference value corresponding to at least one first bounding box that does not contain a first sub-bounding box is obtained, and the first reference value may be lower than the second reference value. .
본 개시의 일 실시 예에서, 복수의 제1 바운딩 박스들은, 제1 객체를 특정하는 제1 클래스로 레이블링되고, 제1 서브 바운딩 박스는, 제2 객체를 특정하는 제2 클래스로 레이블될 수 있다.In one embodiment of the present disclosure, a plurality of first bounding boxes may be labeled as a first class specifying a first object, and a first sub-bounding box may be labeled as a second class specifying a second object. .
본 개시의 일 실시 예에서, 제1 클래스는 사람(person) 클래스를 의미하고, 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미할 수 있다.In one embodiment of the present disclosure, the first class may mean a person class, and the second class may mean at least one of a face class, an ear class, and a hand class. .
본 개시의 일 실시 예에서, 객체는 제1 객체의 일부인 제3 객체를 더 포함하고, 적어도 하나의 프로세서는, 하나 이상의 인스트럭션을 실행함으로써, 이미지에 포함된 제3 객체에 대응되는 제2 서브 바운딩 박스를 생성하고, 제2 서브 바운딩 박스가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제3 기준값을 획득하고, 제2 서브 바운딩 박스가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제4 기준값을 획득하고, 적어도 하나의 제1 바운딩 박스의 신뢰도가 적어도 하나의 제1 바운딩 박스에 대응되는 제3 기준값 및 제4 기준값 중 하나를 넘어서지 못하는, 적어도 하나의 제1 바운딩 박스를 제거하고, 제3 기준값은 제4 기준값보다 낮을 수 있다.In an embodiment of the present disclosure, the object further includes a third object that is a part of the first object, and the at least one processor executes one or more instructions to generate a second sub-boundary corresponding to the third object included in the image. A box is generated, a third reference value corresponding to at least one first bounding box in which a second sub-bounding box is included is obtained, and a third reference value corresponding to at least one first bounding box in which the second sub-bounding box is not included is obtained. A fourth reference value corresponding to is obtained, and the reliability of the at least one first bounding box does not exceed one of the third reference value and the fourth reference value corresponding to the at least one first bounding box. , and the third reference value may be lower than the fourth reference value.
도 1은 본 개시의 일 실시 예에 따른 전자 장치의 개략적인 블록도이다.
도 2는 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 개념도이다.
도 3은 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도이다.
도 6은 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도이다.
도 8은 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다.
도 9 및 10은 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도들이다.
도 11은 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다.
도 12 및 13은 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도들이다.
도 14는 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다.1 is a schematic block diagram of an electronic device according to an embodiment of the present disclosure.
2 is a conceptual diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure.
3 is a flowchart illustrating a method of detecting an object according to an embodiment of the present disclosure.
4 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure.
5 is a flowchart illustrating a method of detecting an object according to an embodiment of the present disclosure.
6 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure.
7 is a flowchart illustrating a method of detecting an object according to an embodiment of the present disclosure.
8 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure.
9 and 10 are flowcharts for describing a method of detecting an object according to an embodiment of the present disclosure.
11 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure.
12 and 13 are flowcharts for describing a method of detecting an object according to an embodiment of the present disclosure.
14 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure.
이하, 본 개시의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나 이는 본 개시에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present disclosure will be described with reference to the accompanying drawings. However, this is not intended to limit the technology described in this disclosure to specific embodiments, and it should be understood that it includes various modifications, equivalents, and/or alternatives of the embodiments of this disclosure. In connection with the description of the drawings, like reference numerals may be used for like elements.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In the present disclosure, expressions such as “has,” “can have,” “includes,” or “can include” indicate the presence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다. In this disclosure, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) may refer to all cases including at least one A and at least one B.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 개시에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다. Expressions such as “first,” “second,” “first,” or “second,” as used in the present disclosure may modify various components regardless of order and/or importance, and refer to one component as It is used only to distinguish it from other components and does not limit the corresponding components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, a first element may be named a second element without departing from the scope of rights described in the present disclosure, and similarly, the second element may also be renamed to the first element.
본 개시에서 사용된 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다. Terms such as "module", "unit", and "part" used in the present disclosure are terms for referring to components that perform at least one function or operation, and these components are implemented in hardware or software. or may be implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except for cases where each of them needs to be implemented with separate specific hardware, so that at least one processor can be implemented as
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다. A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or connected through another component (eg, a third component). On the other hand, when an element (eg, a first element) is referred to as being “directly connected” or “directly connected” to another element (eg, a second element), the element and the above It may be understood that other components (eg, a third component) do not exist between the other components.
본 개시에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 개시에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 개시에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 개시에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 개시에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다. Terms used in the present disclosure are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art described in this disclosure. Among the terms used in the present disclosure, terms defined in general dictionaries may be interpreted as having the same or similar meanings as those in the context of the related art, and unless explicitly defined in the present disclosure, ideal or excessively formal meanings. not be interpreted as In some cases, even terms defined in the present disclosure cannot be interpreted to exclude embodiments of the present disclosure.
도 1은 본 개시의 일 실시 예에 따른 전자 장치의 개략적인 블록도이다.1 is a schematic block diagram of an electronic device according to an embodiment of the present disclosure.
도 1을 참조하면, 전자 장치(100)는 제어부(프로세서; 110) 및 메모리(120)를 포함할 수 있다. 그러나 이에 한정되지는 않는다. 예를 들면, 전자 장치(100)는 전자 장치(100)의 기능을 수행하기 위하여 구성 요소들을 더 포함하거나, 또는 일부 구성 요소들을 포함하지 않을 수 있다. 예를 들면, 전자 장치(100)는 외부 장치와 통신을 수립하는 통신 인터페이스를 더 포함할 수 있다. Referring to FIG. 1 , an
프로세서(110)(또는, 제어부)는 하나 또는 복수 개의 프로세서로 구성될 수도 있다. 또한, 프로세서(110)는 전자 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬을 포함하는 비-휘발성 메모리 및 전자 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나, 전자 장치(100)에서 수행되는 다양한 작업에 대한 저장 영역으로 사용되는 램을 포함하는 휘발성 메모리를 포함할 수 있다. 램은 외부에서부터 수신되는 제어 정보, 전자 장치(100)의 동작 정보, 또는, 전자 장치(100)의 상태 정보에 대한 저장 영역으로 사용될 수 있다. The processor 110 (or control unit) may be composed of one or a plurality of processors. In addition, the
프로세서(110)는 전자 장치(100)의 전반적인 동작 및 전자 장치(100)의 내부 구성 요소들 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 프로세서(110)는 전원부를 이용하여 내부 구성 요소들에게 공급되는 전원을 제어한다. 예를 들면, 프로세서(110)는 메모리(120)를 제어하여 메모리(120)에 저장된 프로그램을 실행시키고, 필요한 정보를 불러오거나 저장할 수 있다. The
일 실시 예에 따르면, 프로세서(110)는 하나 이상의 인스트럭션을 실행함으로써, 인공지능 모델을 이용하여 제1 객체 및 제1 객체의 일부인 제2 객체를 포함하는 객체를 포함하는 이미지를 획득하고, 이미지에 포함된 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하고, 이미지에 포함된 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하고, 제1 서브 바운딩 박스와 제1 바운딩 박스 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득하고, 복수의 제1 바운딩 박스들 중, 제1 서브 바운딩 박스와의 제1 오버랩 스코어가 제1 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하고, 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체를 검출할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 프로세서(110)는 하나 이상의 인스트럭션을 실행함으로써, 제1 객체 및 제1 객체의 일부인 제2 객체를 포함하는 객체를 포함하는 이미지를 획득하고, 이미지에 포함된 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하고, 이미지에 포함된 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하고, 제1 바운딩 박스 내부 영역에 포함되는 객체가 제1 객체와 일치할 확률에 관한 신뢰도를 획득하고, 제1 바운딩 박스 안에 제1 서브 바운딩 박스가 배치되는지 여부에 따라, 제1 바운딩 박스에 대응되는 기준값을 획득하고, 적어도 하나의 제1 바운딩 박스의 신뢰도가 적어도 하나의 제1 바운딩 박스에 대응되는 기준값을 넘어서지 못하는, 적어도 하나의 제1 바운딩 박스를 제거하고, 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체를 검출할 수 있다.According to an embodiment, the
본 개시에 따른 인공지능과 관련된 기능은 프로세서와 메모리를 통해 동작된다. 프로세서는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. Functions related to artificial intelligence according to the present disclosure are operated through a processor and a memory. A processor may consist of one or a plurality of processors. In this case, the one or more processors may be a general-purpose processor such as a CPU, an AP, or a digital signal processor (DSP), a graphics-only processor such as a GPU or a vision processing unit (VPU), or an artificial intelligence-only processor such as an NPU. One or more processors control input data to be processed according to predefined operating rules or artificial intelligence models stored in a memory. Alternatively, when one or more processors are processors dedicated to artificial intelligence, the processors dedicated to artificial intelligence may be designed with a hardware structure specialized for processing a specific artificial intelligence model.
기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.A predefined action rule or an artificial intelligence model is characterized in that it is created through learning. Here, being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created. means burden. Such learning may be performed in the device itself in which artificial intelligence according to the present disclosure is performed, or through a separate server and/or system. Examples of learning algorithms include supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but are not limited to the above examples.
인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.An artificial intelligence model may be composed of a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between an operation result of a previous layer and a plurality of weight values. A plurality of weights possessed by a plurality of neural network layers may be optimized by a learning result of an artificial intelligence model. For example, a plurality of weights may be updated so that a loss value or a cost value obtained from an artificial intelligence model is reduced or minimized during a learning process. The artificial neural network may include a deep neural network (DNN), for example, a Convolutional Neural Network (CNN), a Deep Neural Network (DNN), a Recurrent Neural Network (RNN), a Restricted Boltzmann Machine (RBM), A deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), or deep Q-networks, but is not limited to the above examples.
일 실시 예에 따르면, 메모리(120)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 메모리(120)는 프로세서(110)가 인공지능 모델을 이용하여 제1 객체 및 제1 객체의 일부인 제2 객체를 포함하는 객체를 포함하는 이미지를 획득하고, 이미지에 포함된 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하고, 이미지에 포함된 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하고, 제1 서브 바운딩 박스와 제1 바운딩 박스 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득하고, 복수의 제1 바운딩 박스들 중, 제1 서브 바운딩 박스와의 제1 오버랩 스코어가 제1 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하고, 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체를 검출하도록 설정된 적어도 하나의 명령어들을 저장할 수 있다.
According to an embodiment, the
일 실시 예에 따르면, 메모리(120)는 프로세서(110)가 제1 객체 및 제1 객체의 일부인 제2 객체를 포함하는 객체를 포함하는 이미지를 획득하고, 이미지에 포함된 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하고, 이미지에 포함된 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하고, 제1 바운딩 박스 내부 영역에 포함되는 객체가 제1 객체와 일치할 확률에 관한 신뢰도를 획득하고, 제1 바운딩 박스 안에 제1 서브 바운딩 박스가 배치되는지 여부에 따라, 제1 바운딩 박스에 대응되는 기준값을 획득하고, 적어도 하나의 제1 바운딩 박스의 신뢰도가 적어도 하나의 제1 바운딩 박스에 대응되는 기준값을 넘어서지 못하는, 적어도 하나의 제1 바운딩 박스를 제거하고, 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체를 검출하도록 설정된 적어도 하나의 명령어들을 저장할 수 있다.According to an embodiment, the
도시되지는 않았지만, 일 실시 예에서, 전자 장치(100)는 통신 인터페이스, 디스플레이부, 사용자 입력부 및 카메라부를 더 포함할 수 있다.Although not shown, in one embodiment, the
전자 장치(100)는 통신 인터페이스를 이용하여 외부 장치와 기능적으로 연결될 수 있다. 외부 장치는 예를 들어, 사용자 단말, 플랫폼 서버, 인공 지능 서버 또는 가전 장치 중 적어도 하나를 포함할 수 있다.The
통신 인터페이스는 프로세서(110)의 제어에 의해 하나 또는 둘 이상의 안테나를 이용하여 이동 통신망, 무선랜 통신망, 또는, 근거리 통신망을 통해 외부 장치와 연결할 수 있다. 무선랜 통신은 프로세서(110)의 제어에 의해 AP(access point)가 설치된 장소에서 무선으로 AP와 연결될 수 있다. 예를 들어, 와이-파이(Wi-Fi) 통신을 포함할 수 있다. 근거리 통신은 블루투스(bluetooth) 통신, 블루투스 저 에너지(bluetooth low energy) 통신, 적외선 통신(IrDA, infrared data association), UWB(ultra-wideband) 통신, 마그네틱 보안 전송(MST) 통신 및/또는 NFC 통신 등을 포함할 수 있다. 본 개시의 다양한 실시 예에서 '통신 인터페이스'라는 용어는 이동 통신, 무선랜 통신 및/또는 근거리 통신을 통해 외부 장치와 연결할 수 있다. The communication interface may be connected to an external device through a mobile communication network, a wireless LAN communication network, or a local area network using one or more antennas under the control of the
디스플레이부는 다양한 서비스(예를 들어, 데이터 전송, 방송 수신, 사진 촬영, 동영상 콘텐트 캡처 등)에 대응되는 GUI(graphical user interface)를 제공(또는, 표시)할 수 있다. 본 개시의 실시 예에서 디스플레이부는 터치 스크린을 포함하는 의미일 수도 있다. The display unit may provide (or display) a graphical user interface (GUI) corresponding to various services (eg, data transmission, broadcast reception, photo taking, video content capture, etc.). In an embodiment of the present disclosure, the display unit may include a touch screen.
디스플레이부는 프로세서(110)의 제어에 따라 이미지 내 객체를 검출하는 동작을 표시할 수 있다. The display unit may display an operation of detecting an object in an image under the control of the
사용자 입력부는, 사용자가 전자 장치(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit means a means through which a user inputs data for controlling the
카메라부는 프로세서(110)의 제어에 의해 정지 이미지 또는 동영상을 촬영할 수 있다.The camera unit may capture a still image or a video under the control of the
카메라부는 프로세서(110)의 제어에 의해 정지 이미지 또는 동영상을 촬영할 수 있다. 카메라부는 이미지 내 객체를 검출하기 위해, 객체를 포함하는 공간에 대한 정지 이미지 또는 동영상을 획득할 수 있다. The camera unit may capture a still image or a video under the control of the
일 실시 예에 의하면, 카메라부는 망원 카메라, 광각 카메라, 일반 카메라 중 적어도 하나일 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the camera unit may be at least one of a telephoto camera, a wide-angle camera, and a general camera, but is not limited thereto.
전술한 전자 장치(100)의 구성 요소들은 전자 장치(100)의 성능에 대응하여 적어도 하나의 구성 요소가 추가, 삭제, 또는, 변경될 수 있다는 것은 해당 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 수 있다.It is easy for those skilled in the art that at least one component of the aforementioned
도 2는 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 개념도이다. 2 is a conceptual diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure.
도 2를 참조하면, 일 실시 예에 따른 전자 장치(100)는 인공지능 모델을 이용하여 이미지 내의 객체를 검출할 수 있다. 인공지능 모델은 딥 러닝(Deep Learning) 기반의 객체 인식 모델로 구성될 수 있다.Referring to FIG. 2 , the
전자 장치(100)는 객체를 포함하는 이미지(200)를 획득할 수 있다. 전자 장치(100)는 카메라부를 통해 객체를 포함하는 이미지(200)를 촬영할 수 있고, 통신 인터페이스를 통해 객체를 포함하는 이미지(200)를 수신할 수 있다. 전자 장치(100)가 이미지(200)를 획득하는 방법은 예시일 뿐, 본 개시의 기술적 사상은 이에 한정되지 않는다.The
이미지(200) 내 포함되는 객체는 제1 객체(300) 및 제2 객체(310)를 포함할 수 있다. 제2 객체(310)는 제1 객체(300)의 일부일 수 있다. 예를 들어, 도시된 바와 같이, 제1 객체(300)는 사람(person)일 수 있고, 제2 객체(310)는 사람의 일부인 얼굴(face)일 수 있다. 단, 이는 예시일 뿐, 제1 객체(300) 및 제2 객체(310)의 종류는 본 개시의 기술적 사상을 한정하지 않는다. 제1 객체(300)는 자동차(car)일 수도 있고, 제2 객체(310)는 자동차의 일부인 바퀴(wheel)일 수 있다.Objects included in the
전자 장치(100)는 이미지(200)에 포함된 제1 객체(300)에 대응되는 복수의 제1 바운딩 박스들(401, 402, 403)을 생성할 수 있다. 복수의 제1 바운딩 박스들(401, 402, 403)은 각각의 제1 바운딩 박스들(401, 402, 403) 내부에 위치하는 물체를 제1 객체(300)로 분류할 수 있다. 예를 들어, 복수의 제1 바운딩 박스들(401, 402, 403)은 각각의 제1 바운딩 박스들(401, 402, 403) 내부에 위치하는 물체를 사람(person)으로 분류할 수 있다.The
전자 장치(100)는 이미지(200)에 포함된 제2 객체(310)에 대응되는 제1 서브 바운딩 박스(411)를 생성할 수 있다. 제1 서브 바운딩 박스(411)는 제1 서브 바운딩 박스(411) 내부에 위치하는 물체를 제2 객체(310)로 분류할 수 있다. 예를 들어, 제1 서브 바운딩 박스(411)는 제1 서브 바운딩 박스(411) 내부에 위치하는 물체를 얼굴(face)로 분류할 수 있다.The
참고적으로, 전자 장치(100)는 바운딩 박스 내부 영역에 포함되는 객체가 어떠한 종류의 객체와 일치할 확률에 관한 신뢰도를 획득할 수 있다. 전자 장치(100)는 신뢰도들 중 가장 높은 신뢰도에 대응되는 객체의 종류로 바운딩 박스 내부 영역의 객체를 특정하는 클래스를, 바운딩 박스에 레이블링할 수 있다. 즉, 전자 장치(100)는 바운딩 박스 내부 영역에 포함되는 객체의 종류를 특정하는 클래스와 특정된 객체의 종류가 바운딩 박스 내부 영역에 실제로 포함된 객체의 종류와 일치할 확률인 신뢰도를 레이블링한, 바운딩 박스를 생성할 수 있다.For reference, the
다르게 표현하면 바운딩 박스는 바운딩 박스 내부 영역에 위치하는 객체를 특정 클래스로 분류할 수 있다. 예를 들어, 바운딩 박스가 바운딩 박스 내부 영역에 위치하는 객체를, 사람(person)에 대응되는 클래스로 분류하였다면, 해당 바운딩 박스는 바운딩 박스 내부 영역에 위치하는 객체를 사람으로 인식하는 바운딩 박스일 수 있다. 또한, 바운딩 박스는 특정 클래스에 대한 신뢰도를 포함할 수 있다. 신뢰도는 바운딩 박스 내부 영역에 포함되는 실제 객체와, 바운딩 박스가 분류한 클래스에 대응되는 종류의 객체가 일치할 정확도에 관한 것일 수 있다. In other words, the bounding box can classify objects located in the inner area of the bounding box into a specific class. For example, if the bounding box classifies an object located inside the bounding box into a class corresponding to a person, the bounding box may be a bounding box that recognizes the object located inside the bounding box as a person. there is. Also, the bounding box may include reliability for a specific class. Reliability may relate to the accuracy with which a real object included in the inner region of the bounding box matches an object of a type corresponding to a class classified by the bounding box.
예를 들어, 도 2에 도시된 바와 같이, 제1_1 바운딩 박스(401)는 제1 객체(300)를 사람(person)으로 특정하는 클래스로 레이블링될 수 있다. 제1_1 바운딩 박스(401) 내부 영역에 포함되는 객체가 제1 객체(300)와 일치할 확률에 관한 신뢰도는 0.91일 수 있다.For example, as shown in FIG. 2 , the 1_1
또한, 제1 서브 바운딩 박스(411)는 제2 객체(310)를 얼굴(face)로 특정하는 클래스로 레이블링될 수 있다. 제1 서브 바운딩 박스(411) 내부 영역에 포함되는 객체가 제2 객체(310)와 일치할 확률에 관한 신뢰도는 0.94일 수 있다.Also, the first
전자 장치(100)는 복수의 제1 바운딩 박스들(401, 402, 403)을 제1 서브 바운딩 박스(411)와 비교함으로써, 복수의 제1 바운딩 박스들(401, 402, 403) 중 적어도 하나를 제거할 수 있다.The
일 실시 예에서, 전자 장치(100)는 제1 서브 바운딩 박스(411)와 복수의 제1 바운딩 박스 중 하나 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득할 수 있다. 전자 장치(100)는 복수의 제1 바운딩 박스들(401, 402, 403) 중, 제1 서브 바운딩 박스(411)와의 제1 오버랩 스코어가 제1 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거할 수 있다. 즉, 전자 장치(100)는 복수의 제1 바운딩 박스들(401, 402, 403) 중, 제1 서브 바운딩 박스(411)와의 겹치는 정도가 높은 적어도 하나의 제1 바운딩 박스를 제거할 수 있다.In an embodiment, the
예를 들어, 전자 장치(100)는 제1 서브 바운딩 박스(411)와 제1_1 바운딩 박스(401) 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득할 수 있다. 제1 서브 바운딩 박스(411)와 제1_1 바운딩 박스(401) 간의 제1 오버랩 스코어는, 예를 들어, 0.9로 평가될 수 있다. 전자 장치(100)는 제1 임계값을, 예를 들어, 0.8로 설정할 수 있다. 전자 장치(100)는 제1_1 바운딩 박스(401)에 관한 제1 오버랩 스코어(즉, 0.9)가 제1 임계값(즉, 0.8)을 넘어서므로, 제1_1 바운딩 박스(401)를 제거할 수 있다.For example, the
다른 실시 예에서, 전자 장치(100)는 제1 바운딩 박스 내부 영역에 포함되는 객체가 제1 객체(300)와 일치할 확률에 관한 신뢰도를 획득할 수 있다. 전자 장치(100)는 소정의 제1 바운딩 박스 안에 제1 서브 바운딩 박스(411)가 배치되는지 여부에 따라, 상기 제1 바운딩 박스에 대응되는 기준값을 획득할 수 있다. 전자 장치(100)는 상기 제1 바운딩 박스의 신뢰도가 상기 제1 바운딩 박스에 대응되는 기준값을 넘어서지 못하는 경우, 상기 제1 바운딩 박스를 제거할 수 있다.In another embodiment, the
예를 들어, 전자 장치(100)는 제1_2 바운딩 박스(402) 내부 영역에 포함되는 객체가 제1 객체(300), 즉, 사람(person)과 일치할 확률에 관한 신뢰도를 획득할 수 있다. 전자 장치(100)는 제1_2 바운딩 박스(402) 안에 제1 서브 바운딩 박스(411)가 배치되는지 여부에 따라, 제1_2 바운딩 박스(402)에 대응되는 기준값을 획득할 수 있다.For example, the
도 2에 도시된 바와 같이, 전자 장치(100)는 제1_2 바운딩 박스(402) 안에 제1 서브 바운딩 박스(411)가 배치되므로, 제1_2 바운딩 박스(402)에 대응되는 제1 기준값을 획득할 수 있다. 전자 장치(100)는 제1_2 바운딩 박스(402)의 신뢰도가 제1_2 바운딩 박스(402)에 대응되는 제1 기준값을 넘어서지 못하는 경우 제1_2 바운딩 박스(402)를 제거할 수 있고, 제1_2 바운딩 박스(402)의 신뢰도가 제1_2 바운딩 박스에 대응되는 제1 기준값을 넘어서는 경우 제1_2 바운딩 박스(402)를 제거하지 않을 수 있다.As shown in FIG. 2 , the
참고적으로, 도 2에 도시된 것과는 달리, 제1_2 바운딩 박스(402) 안에 제1 서브 바운딩 박스(411)가 배치되지 않는 경우, 전자 장치(100)는 제1_2 바운딩 박스(402)에 대응되는 제2 기준값을 획득할 수 있다. 전자 장치(100)는 제1_2 바운딩 박스(402)의 신뢰도가 제1_2 바운딩 박스에 대응되는 제2 기준값을 넘어서지 못하는 경우 제1_2 바운딩 박스(402)를 제거할 수 있고, 제1_2 바운딩 박스(402)의 신뢰도가 제1_2 바운딩 박스에 대응되는 제2 기준값을 넘어서는 경우 제1_2 바운딩 박스(402)를 제거하지 않을 수 있다.For reference, unlike what is shown in FIG. 2 , when the first
전자 장치(100)는 복수의 제1 바운딩 박스들(401, 402, 403) 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체(300)를 검출할 수 있다. 즉, 전자 장치(100)는 복수의 제1 바운딩 박스들(401, 402, 403) 중 제거되지 않은 제1_3 바운딩 박스(403)를 통해 제1 객체(300)인 사람(person)을 검출할 수 있다.The
도 3은 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도이다. 도 4는 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다. 이하에서는, 도 3과 도 4를 함께 참조하여 전자 장치(100)의 동작 방법을 설명한다.3 is a flowchart illustrating a method of detecting an object according to an embodiment of the present disclosure. 4 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure. Hereinafter, an operating method of the
설명의 편의상, 도 2를 이용하여 설명한 것과 중복되는 것은 간략히 하거나 생략한다.For convenience of description, overlapping descriptions with those described with reference to FIG. 2 are simplified or omitted.
도 3 및 도 4를 함께 참조하면 단계 S310에서, 일 실시 예에 따른 전자 장치(100)는 객체를 포함하는 이미지(200)를 획득할 수 있다. 이미지(200)에 포함되는 객체는 제1 객체(300) 및 제2 객체(310)를 포함할 수 있고, 제2 객체(310)는 제1 객체(300)의 일부일 수 있다.Referring to FIGS. 3 and 4 together, in step S310, the
제1 객체(300) 및 제2 객체(310)의 종류는 예시일 뿐, 본 개시의 기술적 사상은 이에 한정되지 않는다. 제1 객체(300)는 사람(person)으로, 제2 객체(310)는 얼굴(face)로 도시되었지만, 제1 객체 및 제2 객체는 다른 객체에 대응될 수 있다. The types of the
예를 들어, 제1 객체는 비행기(airplane)이고, 제2 객체는 비행기의 일부인 날개(wing)일 수 있다. 다른 예로, 제1 객체는 사람(person)이고, 제2 객체는 사람의 일부인 손(hand)일 수 있다.For example, the first object may be an airplane and the second object may be a wing that is part of the airplane. As another example, the first object may be a person, and the second object may be a hand that is part of the person.
단계 S320에서, 일 실시 예에 따른 전자 장치(100)는 이미지(200)에 포함된 제1 객체(300)에 대응되는 복수의 제1 바운딩 박스들(401, 402, 403)을 생성할 수 있다.In step S320, the
전자 장치(100)는 복수의 제1 바운딩 박스들(401, 402, 403) 내부 영역에 포함되는 객체의 종류를 제1 객체(300)로 특정하는 제1 클래스를 복수의 제1 바운딩 박스들(401, 402, 403)에 레이블링할 수 있다. 또한, 전자 장치(100)는 제1 객체(300)로 특정된 객체의 종류가 복수의 제1 바운딩 박스들(401, 402, 403) 내부 영역에 실제로 포함된 객체의 종류와 일치할 확률인 신뢰도를 복수의 제1 바운딩 박스들(401, 402, 403)에 레이블링할 수 있다.The
도 4에 도시된 바와 같이, 전자 장치(100)는 제1_1 바운딩 박스(401), 제1_2 바운딩 박스(402) 및 제1_3 바운딩 박스(403)를 생성할 수 있다.As shown in FIG. 4 , the
예를 들어, 제1_1 바운딩 박스(401)는 그 내부에 포함된 객체를 사람(person)으로 특정하는 제1 클래스로 레이블링될 수 있고, 제1_1 바운딩 박스(401) 내부 영역에 실제로 포함된 객체의 종류와 사람(person)이 일치할 확률인 신뢰도로서 0.61이 레이블링될 수 있다.For example, the 1_1
또한 예를 들어, 제1_2 바운딩 박스(402)는 그 내부에 포함된 객체를 사람(person)으로 특정하는 제1 클래스로 레이블링될 수 있고, 제1_2 바운딩 박스(402) 내부 영역에 실제로 포함된 객체의 종류와 사람(person)이 일치할 확률인 신뢰도로서 0.53이 레이블링될 수 있다.Also, for example, the 1_2
또한 예를 들어, 제1_3 바운딩 박스(403)는 그 내부에 포함된 객체를 사람(person)으로 특정하는 제1 클래스로 레이블링될 수 있고, 제1_3 바운딩 박스(403) 내부 영역에 실제로 포함된 객체의 종류와 사람(person)이 일치할 확률인 신뢰도로서 0.91이 레이블링될 수 있다.Also, for example, the 1_3
복수의 제1 바운딩 박스들(401, 402, 403) 중에서, 보다 사람(person)을 적합하게 인식한 바운딩 박스는 제1_3 바운딩 박스(403)일 수 있다. 따라서, 제1_3 바운딩 박스(403)의 신뢰도는 제1_1 바운딩 박스(401) 및 제1_2 바운딩 박스(402)의 신뢰도보다 높을 수 있다.Among the plurality of
예를 들어, 제1_1 바운딩 박스(401)는 사람(person)의 일부분인 얼굴(face)에 한정적으로 인식된 바운딩 박스일 수 있고, 제1_2 바운딩 박스(402)는 의자(chair)의 일부를 사람(person)으로 잘못 인식한 바운딩 박스일 수 있다. For example, the 1_1
단계 S330에서, 일 실시 예에 따른 전자 장치(100)는 이미지(200)에 포함된 제2 객체(310)에 대응되는 제1 서브 바운딩 박스(411)를 생성할 수 있다.In step S330, the
전자 장치(100)는 제1 서브 바운딩 박스(411) 내부 영역에 포함되는 객체의 종류를 제2 객체(310)로 특정하는 제2 클래스를 제1 서브 바운딩 박스(411)에 레이블링할 수 있다. 또한, 전자 장치(100)는 제2 객체(310)로 특정된 객체의 종류가 제1 서브 바운딩 박스(411) 내부 영역에 실제로 포함된 객체의 종류와 일치할 확률인 신뢰도를 제1 서브 바운딩 박스(411)에 레이블링할 수 있다.The
예를 들어, 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미할 수 있지만, 이는 예시일 뿐, 본 개시의 기술적 사상은 이에 한정되지 않는다.For example, the second class may mean at least one of a face class, an ear class, and a hand class, but this is only an example, and the technical idea of the present disclosure is not limited thereto.
도 4에 도시된 바와 같이, 전자 장치(100)는 제1 서브 바운딩 박스(411)를 생성할 수 있다. 설명의 편의상, 서브 바운딩 박스는 하나만 도시되었을 뿐, 본 개시의 기술적 사상은 서브 바운딩 박스의 개수를 한정하지 않는다.As shown in FIG. 4 , the
예를 들어, 제1 서브 바운딩 박스(411)는 그 내부에 포함된 객체를 얼굴(face)로 특정하는 제2 클래스로 레이블링될 수 있고, 제1 서브 바운딩 박스(411) 내부 영역에 실제로 포함된 객체의 종류와 얼굴(face)이 일치할 확률인 신뢰도로서 0.94가 레이블링될 수 있다.For example, the first
단계 S340에서, 일 실시 예에 따른 전자 장치(100)는 제1 서브 바운딩 박스(411)와 제1 바운딩 박스 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득할 수 있다.In operation S340, the
오버랩 스코어는 예를 들어, IOU(intersection over union)에 관한 스코어일 수 있다. 단, 이는 예시일 뿐, 본 개시의 기술적 사상은 이에 한정되지 않는다. 오버랩 스코어는 두 개의 바운딩 박스에 대하여, 교집합 영역의 넓이를 합집합 영역의 넓이를 나눈 값으로 계산될 수 있다. The overlap score may be, for example, an intersection over union (IOU) score. However, this is only an example, and the technical spirit of the present disclosure is not limited thereto. The overlap score may be calculated as a value obtained by dividing the area of the intersection area by the area of the union area of the two bounding boxes.
예를 들어, 도 4의 단계 S410에서, 전자 장치(100)는 제1_1 바운딩 박스(401)와 제1 서브 바운딩 박스(411)를 비교할 수 있다. 전자 장치(100)는 제1 서브 바운딩 박스(411)와 제1_1 바운딩 박스(401) 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득할 수 있다.For example, in step S410 of FIG. 4 , the
구체적으로 설명하면, 도 4에 도시된 바와 같이, 제1_1 바운딩 박스(401)의 내부 영역의 넓이는 A+B로 표현될 수 있고, 제1 서브 바운딩 박스(411)의 내부 영역의 넓이는 B+C로 표현될 수 있다. 이 경우, 제1 서브 바운딩 박스(411)와 제1_1 바운딩 박스(401)의 교집합 영역의 넓이는 B일 수 있고, 제1 서브 바운딩 박스(411)와 제1_1 바운딩 박스(401)의 합집합 영역의 넓이는 A+B+C일 수 있다. 따라서, 제1 서브 바운딩 박스(411)와 제1_1 바운딩 박스(401) 간의 겹치는 정도에 관한 제1 오버랩 스코어는 로 계산될 수 있다.Specifically, as shown in FIG. 4 , the area of the inner area of the 1_1
예를 들어, A, B 및 C의 비율이 1:8:1인 경우, 전자 장치(100)는 제1 서브 바운딩 박스(411)와 제1_1 바운딩 박스(401) 간의 겹치는 정도에 관한 제1 오버랩 스코어를 0.8로 획득할 수 있다.For example, when the ratio of A, B, and C is 1:8:1, the
다른 예로 도 4의 단계 S420에서, 전자 장치(100)는 제1_2 바운딩 박스(402)와 제1 서브 바운딩 박스(411)를 비교할 수 있다. 전자 장치(100)는 제1 서브 바운딩 박스(411)와 제1_2 바운딩 박스 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득할 수 있다.As another example, in step S420 of FIG. 4 , the
구체적으로 설명하면, 도 4에 도시된 바와 같이, 제1_2 바운딩 박스(402)의 내부 영역의 넓이는 D로 표현될 수 있고, 제1 서브 바운딩 박스(411)의 내부 영역의 넓이는 B+C로 표현될 수 있다. 이 경우, 제1 서브 바운딩 박스(411)와 제1_2 바운딩 박스(402)의 교집합 영역의 넓이는 0일 수 있고, 제1 서브 바운딩 박스(411)와 제1_2 바운딩 박스(402)의 합집합 영역의 넓이는 B+C+D일 수 있다. 따라서, 제1 서브 바운딩 박스(411)와 제1_2 바운딩 박스(402) 간의 겹치는 정도에 관한 제1 오버랩 스코어는 0으로 계산될 수 있다.Specifically, as shown in FIG. 4 , the area of the inner area of the 1_2
전자 장치(100)는 제1 서브 바운딩 박스(411)와 제1_2 바운딩 박스(402) 간의 겹치는 정도에 관한 제1 오버랩 스코어를 0으로 획득할 수 있다.The
단계 S350에서, 일 실시 예에 따른 전자 장치(100)는 복수의 제1 바운딩 박스들(401, 402, 403) 중, 제1 서브 바운딩 박스(411)와의 제1 오버랩 스코어가 제1 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거할 수 있다.In step S350, the
제1 임계값은 예를 들어, 임의로 설정된 값일 수 있다. 전자 장치(100)는 사용자 입력에 따라 제1 임계값을 설정할 수도 있고, 케이스에 따라 설정된 임계값들을 서버에 의해 수신할 수도 있으나, 이는 예시일 뿐, 본 개시의 기술적 사상은 이를 한정하지 않는다.The first threshold value may be, for example, an arbitrarily set value. The
예를 들어, 도 4의 단계 S410에서, 전자 장치(100)는 제1_1 바운딩 박스(401)와 제1 서브 바운딩 박스(411) 간의 계산된 제1 오버랩 스코어를 제1 임계값과 비교할 수 있다. 전자 장치(100)는 제1_1 바운딩 박스(401)와 제1 서브 바운딩 박스(411) 간의 계산된 제1 오버랩 스코어가 제1 임계값을 초과하는 경우, 제1_1 바운딩 박스(401)를 제거할 수 있다.For example, in step S410 of FIG. 4 , the
다른 예로 도 4의 단계 S420에서, 전자 장치(100)는 제1_2 바운딩 박스(402)와 제1 서브 바운딩 박스(411) 간의 계산된 제1 오버랩 스코어를 제1 임계값과 비교할 수 있다. 전자 장치(100)는 제1_2 바운딩 박스(402)와 제1 서브 바운딩 박스(411) 간의 계산된 제1 오버랩 스코어가 제1 임계값을 초과하는 경우, 제1_2 바운딩 박스(402)를 제거할 수 있다.As another example, in step S420 of FIG. 4 , the
단계 S360에서, 일 실시 예에 따른 전자 장치(100)는 복수의 제1 바운딩 박스들(401, 402, 403) 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체(300)를 검출할 수 있다. In step S360, the
예를 들어, 제1_3 바운딩 박스(403)와 제1 서브 바운딩 박스(411) 간의 제1 오버랩 스코어는 제1 임계값을 초과하지 않을 수 있다. 따라서, 전자 장치(100)는 제1_3 바운딩 박스(403)를 제거하지 않을 수 있다. 전자 장치(100)는 제거되지 않은 제1_3 바운딩 박스(403)를 통해 제1 객체(사람, person; 300)를 검출할 수 있다.For example, a first overlap score between the 1_3
도 5는 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도이다. 도 6은 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다. 이하에서는, 도 5와 도 6을 함께 참조하여 전자 장치(100)의 동작 방법을 설명한다.5 is a flowchart illustrating a method of detecting an object according to an embodiment of the present disclosure. 6 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure. Hereinafter, the operating method of the
설명의 편의상, 도 3 및 도 4를 이용하여 설명한 것과 중복되는 것은 간략히 하거나 생략한다.For convenience of description, overlapping descriptions with those described with reference to FIGS. 3 and 4 are simplified or omitted.
도 5 및 도 6을 함께 참조하면 단계 S510에서, 일 실시 예에 따른 전자 장치(100)는 객체를 포함하는 이미지(200)를 획득할 수 있다. 이미지(200)에 포함되는 객체는 제1 객체(300), 제2 객체(310) 및 제3 객체(320)를 포함할 수 있다. 제2 객체(310) 및 제3 객체(320)는 제1 객체(300)의 일부일 수 있다.Referring to FIGS. 5 and 6 together, in step S510, the
제1 객체(300), 제2 객체(310) 및 제3 객체(320)의 종류는 예시일 뿐, 본 개시의 기술적 사상은 이에 한정되지 않는다. 제1 객체(300)는 사람(person)으로, 제2 객체(310)는 얼굴(face)로, 제3 객체(320)는 귀(ear)로 도시되었지만, 제1 객체 내지 제3 객체는 각각 다른 객체에 대응될 수 있다.The types of the
예를 들어, 제1 객체는 자동차(car)이고, 제2 객체는 자동차의 일부인 바퀴(wheel)이고, 제3 객체는 자동차의 일부인 창문(window)일 수 있다. For example, the first object may be a car, the second object may be a wheel that is part of the car, and the third object may be a window that is part of the car.
단계 S520에서, 일 실시 예에 따른 전자 장치(100)는 이미지(200)에 포함된 제1 객체(300)에 대응되는 복수의 제1 바운딩 박스들(601, 602, 603, 604)을 생성할 수 있다.In step S520, the
전자 장치(100)는 복수의 제1 바운딩 박스들(601, 602, 603, 604) 내부 영역에 포함되는 객체의 종류를 제1 객체(300)로 특정하는 제1 클래스를 복수의 제1 바운딩 박스들(601, 602, 603, 604)에 레이블링할 수 있다. 또한, 전자 장치(100)는 제1 객체(300)로 특정된 객체의 종류가 복수의 제1 바운딩 박스들(601, 602, 603, 604) 내부 영역에 실제로 포함된 객체의 종류와 일치할 확률인 신뢰도를 복수의 제1 바운딩 박스들(601, 602, 603, 604)에 레이블링할 수 있다.The
도 6에 도시된 바와 같이, 전자 장치(100)는 제1_1 바운딩 박스(601), 제1_2 바운딩 박스(602), 제1_3 바운딩 박스(603) 및 제1_4 바운딩 박스(604)를 생성할 수 있다.As shown in FIG. 6 , the
제1_1 바운딩 박스 내지 제1_4 바운딩 박스(601, 602, 603, 604)는 각각 그 내부에 포함된 객체를 사람(person)으로 특정하는 제1 클래스로 레이블링될 수 있고, 각각의 내부 영역에 실제로 포함된 객체의 종류와 사람(person)이 일치할 확률인 신뢰도가 각각 레이블링될 수 있다.Each of the 1_1st to 1_4th bounding
예를 들어, 제1_1 바운딩 박스(601)는 사람(person)의 일부분인 얼굴(face)에 한정적으로 인식된 바운딩 박스일 수 있고, 제1_2 바운딩 박스(602)는 사람(person)의 일부분인 귀(ear)에 한정적으로 인식된 바운딩 박스일 수 있고, 제1_3 바운딩 박스(603)는 의자(chair)의 일부를 사람(person)으로 잘못 인식한 바운딩 박스일 수 있다.For example, the 1_1
참고적으로, 설명의 편의상, 단계 S530, S540 및 S550에서 설명되는 동작은 도 3의 단계 S330, S340 및 S350에서 설명되는 동작과 동일하므로 중복되는 설명은 생략하고, 단계 S531, S541 및 S551의 동작을 중심으로 설명한다.For reference, for convenience of description, operations described in steps S530, S540, and S550 are the same as operations described in steps S330, S340, and S350 of FIG. will be explained based on
단계 S531에서, 일 실시 예에 따른 전자 장치(100)는 이미지(200)에 포함된 제3 객체(320)에 대응되는 제2 서브 바운딩 박스(612)를 생성할 수 있다.In step S531, the
전자 장치(100)는 제2 서브 바운딩 박스(612) 내부 영역에 포함되는 객체의 종류를 제3 객체(320)로 특정하는 제3 클래스를 제2 서브 바운딩 박스(612)에 레이블링할 수 있다. 또한, 전자 장치(100)는 제3 객체(320)로 특정된 객체의 종류가 제2 서브 바운딩 박스(612) 내부 영역에 실제로 포함된 객체의 종류와 일치할 확률인 신뢰도를 제2 서브 바운딩 박스(612)에 레이블링할 수 있다.The
제3 객체(320)는 제1 서브 바운딩 박스(611)에 레이블링된 제2 클래스에 의해 특정된 제2 객체(310)와 다를 수 있다. 예를 들어, 제3 객체(320)는 얼굴(face)인 제2 객체(310)와 달리, 귀(ear)일 수 있다.The
예를 들어, 제2 서브 바운딩 박스(612)는 그 내부에 포함된 객체를 귀(ear)로 특정하는 제3 클래스로 레이블링될 수 있고, 제2 서브 바운딩 박스(612) 내부 영역에 실제로 포함된 객체의 종류와 귀(ear)가 일치할 확률인 신뢰도로서 0.95가 레이블링될 수 있다.For example, the second
단계 S541에서, 일 실시 예에 따른 전자 장치(100)는 제2 서브 바운딩 박스(612)와 제1 바운딩 박스 간의 겹치는 정도에 관한 제2 오버랩 스코어를 획득할 수 있다. In step S541, the
참고적으로, 도 6의 단계 S610에서, 전자 장치(100)는 제1_1 바운딩 박스(601)와 제1 서브 바운딩 박스(411)를 비교할 수 있다. 전자 장치(100)는 제1 서브 바운딩 박스(411)와 제1_1 바운딩 박스(601) 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득할 수 있다.For reference, in step S610 of FIG. 6 , the
제1 서브 바운딩 박스(411)와 제1_1 바운딩 박스(601) 간의 겹치는 정도에 관한 제1 오버랩 스코어에 관한 설명은 도 3 및 도 4에서 설명한 단계 S410과 동일하므로, 중복되는 설명은 생략한다.Since the description of the first overlap score regarding the degree of overlap between the first
예를 들어, 도 6의 단계 S620에서, 전자 장치(100)는 제1_1 바운딩 박스(601)와 제2 서브 바운딩 박스(612)를 비교할 수 있다. 전자 장치(100)는 제2 서브 바운딩 박스(612)와 제1_1 바운딩 박스(601) 간의 겹치는 정도에 관한 제2 오버랩 스코어를 획득할 수 있다.For example, in step S620 of FIG. 6 , the
제2 오버랩 스코어를 구하는 방법은 도 3 및 도 4에서 설명한 제1 오버랩 스코어를 구하는 방법과 동일하므로 중복되는 설명은 생략한다. 단, 제1_1 바운딩 박스(601)와 제2 서브 바운딩 박스(612) 간의 겹치는 정도에 관한 제2 오버랩 스코어는 다소 낮을 수 있다. 예를 들어, 전자 장치(100)는 제1_1 바운딩 박스(601)와 제2 서브 바운딩 박스(612) 간의 겹치는 정도에 관한 제2 오버랩 스코어를 0.2로 획득할 수 있다.Since the method of obtaining the second overlap score is the same as the method of obtaining the first overlap score described in FIGS. 3 and 4, duplicate descriptions are omitted. However, the second overlap score regarding the degree of overlap between the
다른 예로, 도 6의 단계 S630에서, 전자 장치(100)는 제1_2 바운딩 박스(602)와 제2 서브 바운딩 박스(612)를 비교할 수 있다. 전자 장치(100)는 제2 서브 바운딩 박스(612)와 제1_2 바운딩 박스(602) 간의 겹치는 정도에 관한 제2 오버랩 스코어를 획득할 수 있다.As another example, in step S630 of FIG. 6 , the
제2 오버랩 스코어를 구하는 방법은 도 3 및 도 4에서 설명한 제1 오버랩 스코어를 구하는 방법과 동일하므로 중복되는 설명은 생략한다. 단, 제1_2 바운딩 박스(602)와 제2 서브 바운딩 박스(612) 간의 겹치는 정도에 관한 제2 오버랩 스코어는 다소 높을 수 있다. 예를 들어, 전자 장치(100)는 제1_2 바운딩 박스(602)와 제2 서브 바운딩 박스(612) 간의 겹치는 정도에 관한 제2 오버랩 스코어를 0.9로 획득할 수 있다.Since the method of obtaining the second overlap score is the same as the method of obtaining the first overlap score described in FIGS. 3 and 4, duplicate descriptions are omitted. However, the second overlap score regarding the degree of overlap between the
단계 S551에서, 일 실시 예에 따른 전자 장치(100)는 복수의 제1 바운딩 박스들(601, 602, 603, 604) 중, 제2 서브 바운딩 박스(612)와의 제2 오버랩 스코어가 제2 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거할 수 있다.In step S551, the
제2 임계값은 예를 들어, 임의로 설정된 값일 수 있다. 전자 장치(100)는 사용자 입력에 따라 제2 임계값을 설정할 수도 있고, 케이스에 따라 설정된 임계값들을 서버에 의해 수신할 수도 있으나, 이는 예시일 뿐, 본 개시의 기술적 사상은 이를 한정하지 않는다.The second threshold may be, for example, an arbitrarily set value. The
참고적으로, 도 6의 단계 S610에서, 전자 장치(100)는 제1_1 바운딩 박스(601)와 제1 서브 바운딩 박스(611) 간의 계산된 제1 오버랩 스코어를 제1 임계값과 비교할 수 있다. 전자 장치(100)는 제1_1 바운딩 박스(601)와 제1 서브 바운딩 박스(611) 간의 계산된 제1 오버랩 스코어가 제1 임계값을 초과하는 경우, 제1_1 바운딩 박스(601)를 제거할 수 있다.For reference, in step S610 of FIG. 6 , the
도 4의 단계 S620에서, 전자 장치(100)는 제1_1 바운딩 박스(601)와 제2 서브 바운딩 박스(612) 간의 계산된 제2 오버랩 스코어를 제2 임계값과 비교할 수 있다. 전자 장치(100)는 제1_1 바운딩 박스(601)와 제2 서브 바운딩 박스(612) 간의 계산된 제2 오버랩 스코어가 제2 임계값을 초과하지 않는 경우, 제1_1 바운딩 박스(601)를 제거하지 않을 수 있다.In step S620 of FIG. 4 , the
다른 예로 도 4의 단계 S630에서, 전자 장치(100)는 제1_2 바운딩 박스(602)와 제2 서브 바운딩 박스(612) 간의 계산된 제2 오버랩 스코어를 제2 임계값과 비교할 수 있다. 전자 장치(100)는 제1_2 바운딩 박스(602)와 제2 서브 바운딩 박스(612) 간의 계산된 제2 오버랩 스코어가 제2 임계값을 초과하는 경우, 제1_2 바운딩 박스(602)를 제거할 수 있다.As another example, in step S630 of FIG. 4 , the
단계 S560에서, 일 실시 예에 따른 전자 장치(100)는 복수의 제1 바운딩 박스들(601, 602, 603, 604) 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체(300)를 검출할 수 있다. In step S560, the
예를 들어, 제1_4 바운딩 박스(604)와 제1 서브 바운딩 박스(611) 간의 제1 오버랩 스코어는 제1 임계값을 초과하지 않을 수 있다. 따라서, 전자 장치(100)는 제1_3 바운딩 박스(603)를 제거하지 않을 수 있다. 또한, 제1_4 바운딩 박스(604)와 제2 서브 바운딩 박스(612) 간의 제2 오버랩 스코어는 제2 임계값을 초과하지 않을 수 있다. 따라서, 전자 장치(100)는 제1_4 바운딩 박스(604)를 제거하지 않을 수 있다.For example, a first overlap score between the
전자 장치(100)는 제거되지 않은 제1_4 바운딩 박스(604)를 통해 제1 객체(사람, person; 300)를 검출할 수 있다.The
도 7은 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도이다. 도 8은 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다. 이하에서는, 도 7와 도 8을 함께 참조하여 전자 장치(100)의 동작 방법을 설명한다.7 is a flowchart illustrating a method of detecting an object according to an embodiment of the present disclosure. 8 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure. Hereinafter, a method of operating the
설명의 편의상, 도 7 및 도 8을 이용하여 설명한 것과 중복되는 것은 간략히 하거나 생략한다. For convenience of description, overlapping descriptions with those described with reference to FIGS. 7 and 8 are simplified or omitted.
도 7 및 도 8을 함께 참조하면 단계 S710에서, 일 실시 예에 따른 전자 장치(100)는 객체를 포함하는 이미지(200)를 획득할 수 있다. 이미지(200)에 포함되는 객체는 제1 객체(300), 제2 객체(310) 및 제3 객체(320)를 포함할 수 있다. 제2 객체(310) 및 제3 객체(320)는 제1 객체(300)의 일부일 수 있다.Referring to FIGS. 7 and 8 together, in step S710, the
단계 S720에서, 일 실시 예에 따른 전자 장치(100)는 이미지(200)에 포함된 제1 객체(300)에 대응되는 복수의 제1 바운딩 박스들을 생성할 수 있다. 도 8에 도시된 바와 같이, 전자 장치(100)는 제1_1 바운딩 박스(801), 제1_2 바운딩 박스(802) 및 제1_3 바운딩 박스(803)를 생성할 수 있다.In step S720, the
제1_1 바운딩 박스 내지 제1_3 바운딩 박스(801, 802, 803)는 각각 그 내부에 포함된 객체를 사람(person)으로 특정하는 제1 클래스로 레이블링될 수 있고, 각각의 내부 영역에 실제로 포함된 객체의 종류와 사람(person)이 일치할 확률인 신뢰도가 각각 레이블링될 수 있다.Each of the 1_1st to 1_3rd bounding
참고적으로, 설명의 편의상, 단계 S730, S740 및 S750에서 설명되는 동작은 도 3의 단계 S330, S340 및 S350에서 설명되는 동작과 동일하고, 단계 S731, S741 및 S751에서 설명되는 동작은 도 5의 단계 S531, S541 및 S551에서 설명되는 동작과 동일하므로 중복되는 설명은 생략한다. 이하에서는 단계 S732, S742 및 S752의 동작을 중심으로 설명한다.For reference, for convenience of description, operations described in steps S730, S740, and S750 are the same as operations described in steps S330, S340, and S350 of FIG. Since it is the same as the operation described in steps S531, S541, and S551, duplicate descriptions are omitted. Hereinafter, operations of steps S732, S742 and S752 will be mainly described.
단계 S732에서, 일 실시 예에 따른 전자 장치(100)는 복수의 제1 바운딩 박스들 중, 이미지(200)에 포함된 제1 객체(300)에 대응되는 제1 기준 바운딩 박스(R1)를 결정할 수 있다.In step S732, the
전자 장치(100)는 복수의 제1 바운딩 박스들 중, 레이블링된 신뢰도가 가장 높은 제1 바운딩 박스를 제1 기준 바운딩 박스(R1)로 결정할 수 있다. 예를 들어, 제1_1 바운딩 박스(801)의 신뢰도는 0.61일 수 있다. 제1_2 바운딩 박스(802)의 신뢰도는 0.84일 수 있다. 제1_3 바운딩 박스(803)의 신뢰도는 0.91일 수 있다. 이 경우, 전자 장치(100)는 제1_3 바운딩 박스(803)를 제1 기준 바운딩 박스(R1)로 결정할 수 있다. 제1_3 바운딩 박스(803)는 제1 기준 바운딩 박스(R1)일 수 있다.The
단계 S742에서, 일 실시 예에 따른 전자 장치(100)는 제1 기준 바운딩 박스(R1)를 제외한 복수의 제1 바운딩 박스들(801, 802, 803) 중 하나와 제1 기준 바운딩 박스(R1) 간의 겹치는 정도에 관한 제3 오버랩 스코어를 획득할 수 있다.In step S742, the
예를 들어, 도 8의 단계 S810에서, 전자 장치(100)는 제1_1 바운딩 박스(801)와 제1 기준 바운딩 박스(R1)를 비교할 수 있다. 전자 장치(100)는 제1 기준 바운딩 박스(R1)와 제1_1 바운딩 박스(801) 간의 겹치는 정도에 관한 제3 오버랩 스코어를 획득할 수 있다.For example, in step S810 of FIG. 8 , the
제3 오버랩 스코어를 구하는 방법은 도 3 및 도 4에서 설명한 제1 오버랩 스코어를 구하는 방법과 동일하므로 중복되는 설명은 생략한다. 단, 제1_1 바운딩 박스(801)와 제1 기준 바운딩 박스(R1) 간의 겹치는 정도에 관한 제3 오버랩 스코어는 다소 낮을 수 있다. 예를 들어, 전자 장치(100)는 제1_1 바운딩 박스(801)와 제1 기준 바운딩 박스(R1) 간의 겹치는 정도에 관한 제3 오버랩 스코어를 0.4로 획득할 수 있다.Since the method for obtaining the third overlap score is the same as the method for obtaining the first overlap score described in FIGS. 3 and 4, duplicate descriptions are omitted. However, the third overlap score regarding the degree of overlap between the
다른 예로, 도 8의 단계 S820에서, 전자 장치(100)는 제1_2 바운딩 박스(802)와 제1 기준 바운딩 박스(R1)를 비교할 수 있다. 전자 장치(100)는 제1 기준 바운딩 박스(R1)와 제1_2 바운딩 박스(802) 간의 겹치는 정도에 관한 제3 오버랩 스코어를 획득할 수 있다.As another example, in step S820 of FIG. 8 , the
제1_2 바운딩 박스(802)와 제1 기준 바운딩 박스(R1) 간의 겹치는 정도에 관한 제3 오버랩 스코어는 예를 들어, 다소 높을 수 있다. 전자 장치(100)는 제1_2 바운딩 박스(802)와 제1 기준 바운딩 박스(R1) 간의 겹치는 정도에 관한 제3 오버랩 스코어를 0.8로 획득할 수 있다.For example, the third overlap score regarding the degree of overlap between the
단계 S752에서, 일 실시 예에 따른 전자 장치(100)는 복수의 제1 바운딩 박스들 중, 제1 기준 바운딩 박스(R1)와의 제3 오버랩 스코어가 제3 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거할 수 있다.In step S752, the
제3 임계값은 예를 들어, 임의로 설정된 값일 수 있다. 전자 장치(100)는 사용자 입력에 따라 제3 임계값을 설정할 수도 있고, 케이스에 따라 설정된 임계값들을 서버에 의해 수신할 수도 있으나, 이는 예시일 뿐, 본 개시의 기술적 사상은 이를 한정하지 않는다.The third threshold may be, for example, an arbitrarily set value. The
예를 들어, 도 8의 단계 S810에서, 전자 장치(100)는 제1_1 바운딩 박스(801)와 제1 기준 바운딩 박스(R1) 간의 계산된 제3 오버랩 스코어를 제3 임계값과 비교할 수 있다. 전자 장치(100)는 제1_1 바운딩 박스(801)와 제1 기준 바운딩 박스(R1) 간의 계산된 제3 오버랩 스코어가 제3 임계값을 초과하지 않는 경우, 제1_1 바운딩 박스(801)를 제거하지 않을 수 있다.For example, in step S810 of FIG. 8 , the
다른 예로 도 8의 단계 S820에서, 전자 장치(100)는 제1_2 바운딩 박스(802)와 제1 기준 바운딩 박스(R1) 간의 계산된 제3 오버랩 스코어를 제3 임계값과 비교할 수 있다. 전자 장치(100)는 제1_2 바운딩 박스(802)와 제1 기준 바운딩 박스(R1) 간의 계산된 제3 오버랩 스코어가 제3 임계값을 초과하지 않는 경우, 제1_2 바운딩 박스(802)를 제거하지 않을 수 있다.As another example, in step S820 of FIG. 8 , the
단계 S760에서, 일 실시 예에 따른 전자 장치(100)는 복수의 제1 바운딩 박스들(801, 802, 803) 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체(300)를 검출할 수 있다. In step S760, the
예를 들어, 제1_1 바운딩 박스(801)와 제1 기준 바운딩 박스(R1) 간의 제3 오버랩 스코어는 제3 임계값을 초과할 수 있다. 따라서, 전자 장치(100)는 제1_1 바운딩 박스(801)를 제거할 수 있다. 또한, 제1_2 바운딩 박스(802)와 제1 기준 바운딩 박스(R1) 간의 제3 오버랩 스코어는 제3 임계값을 초과할 수 있다. 따라서, 전자 장치(100)는 제1_2 바운딩 박스(802)를 제거할 수 있다. 전자 장치(100)는 복수의 제1 바운딩 박스들(801, 802, 803) 중 제거되지 않은 제1_3 바운딩 박스(803)를 통해 제1 객체(300)인 사람(person)을 검출할 수 있다.For example, the third overlap score between the
도 9 및 10은 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도들이다. 도 11은 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다. 이하에서는, 도 11을 함께 참조하여, 도 9 및 도 10의 흐름도에 따른 전자 장치(100)의 동작 방법을 설명한다.9 and 10 are flowcharts for describing a method of detecting an object according to an embodiment of the present disclosure. 11 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure. Hereinafter, an operating method of the
설명의 편의상, 도 3을 이용하여 설명한 것과 중복되는 것은 간략히 하거나 생략한다. For convenience of explanation, overlapping descriptions with those described with reference to FIG. 3 are simplified or omitted.
도 9 및 도 11을 함께 참조하면 단계 S910에서, 일 실시 예에 따른 전자 장치(100)는 객체를 포함하는 이미지(200)를 획득할 수 있다. 이미지(200)에 포함되는 객체는 제1 객체(300) 및 제2 객체(310)를 포함할 수 있다. 제2 객체(310)는 제1 객체(300)의 일부일 수 있다. Referring to FIGS. 9 and 11 together, in step S910, the
단계 S920에서, 일 실시 예에 따른 전자 장치(100)는 이미지(200)에 포함된 제1 객체(300)에 대응되는 복수의 제1 바운딩 박스들을 생성할 수 있다. 도 11에 도시된 바와 같이, 전자 장치(100)는 제1_1 바운딩 박스(1101), 제1_2 바운딩 박스(1102) 및 제1_3 바운딩 박스(1103)를 생성할 수 있다.In step S920, the
제1_1 바운딩 박스 내지 제1_3 바운딩 박스(1101, 1102, 1103)는 각각 그 내부에 포함된 객체를 사람(person)으로 특정하는 제1 클래스로 레이블링될 수 있고, 각각의 내부 영역에 실제로 포함된 객체의 종류와 사람(person)이 일치할 확률인 신뢰도가 각각 레이블링될 수 있다.Each of the 1_1 to 1_3 bounding
단계 S930에서, 일 실시 예에 따른 전자 장치(100)는 이미지(200)에 포함된 제2 객체(310)에 대응되는 제1 서브 바운딩 박스(1110)를 생성할 수 있다. In step S930, the
도 11에 도시된 바와 같이, 전자 장치(100)는 제1 서브 바운딩 박스(1110)를 생성할 수 있다. 설명의 편의상, 서브 바운딩 박스는 하나만 도시되었을 뿐, 본 개시의 기술적 사상은 서브 바운딩 박스의 개수를 한정하지 않는다.As shown in FIG. 11 , the
단계 S940에서, 일 실시 예에 따른 전자 장치(100)는 제1 바운딩 박스 내부 영역에 포함되는 객체가 제1 객체(300)와 일치할 확률에 관한 신뢰도를 획득할 수 있다.In step S940, the
전자 장치(100)는 제1 바운딩 박스 내부 영역에 포함되는 객체의 종류를 제1 객체(300)로 특정하는 제1 클래스를 제1 바운딩 박스에 레이블링할 수 있다. 또한, 전자 장치(100)는 제1 객체(300)로 특정된 객체의 종류가 제1 바운딩 박스 내부 영역에 실제로 포함된 객체의 종류와 일치할 확률인 신뢰도를 제1 바운딩 박스에 레이블링할 수 있다.The
예를 들어, 제1 바운딩 박스는 그 내부에 포함된 객체를 사람(person)로 특정하는 제1 클래스로 레이블링될 수 있고, 제1 바운딩 박스 내부 영역에 실제로 포함된 객체의 종류와 사람(person)이 일치할 확률인 신뢰도로서 0.91가 레이블링될 수 있다.For example, the first bounding box may be labeled as a first class that specifies an object included therein as a person, and the type of object actually included in the first bounding box and the person 0.91 can be labeled as the reliability, which is the probability of matching.
전자 장치(100)는 각각의 제1 바운딩 박스에 레이블링된 신뢰도를 획득할 수 있다. 예를 들어, 전자 장치(100)는 제1_1 바운딩 박스(1101)에 대한 신뢰도를 획득할 수 있고, 도 11에 도시된 바와 같이 제1_1 바운딩 박스(1101)의 신뢰도는 0.91일 수 있다. 전자 장치(100)는 제1_2 바운딩 박스(1102)에 대한 신뢰도를 획득할 수 있고, 도 11에 도시된 바와 같이 제1_2 바운딩 박스(1102)의 신뢰도는 0.37일 수 있다. 전자 장치(100)는 제1_3 바운딩 박스(1103)에 대한 신뢰도를 획득할 수 있고, 도 11에 도시된 바와 같이 제1_3 바운딩 박스(1103)의 신뢰도는 0.31일 수 있다.The
단계 S950에서, 일 실시 예에 따른 전자 장치(100)는 제1 바운딩 박스 안에 제1 서브 바운딩 박스(1110)가 배치되는지 여부에 따라, 제1 바운딩 박스에 대응되는 기준값을 획득할 수 있다.In step S950, the
기준값은 예를 들어, 임의로 설정된 값일 수 있다. 전자 장치(100)는 사용자 입력에 따라 기준값을 설정할 수도 있고, 케이스에 따라 설정된 기준값들을 서버에 의해 수신할 수도 있으나, 이는 예시일 뿐, 본 개시의 기술적 사상은 이를 한정하지 않는다.The reference value may be, for example, an arbitrarily set value. The
기준값은 예를 들어, 제1 바운딩 박스의 유효도에 관련된 지표일 수 있다. 제1 바운딩 박스의 신뢰도가 기준값을 초과하는 경우, 일 실시 예에 따른 전자 장치(100)는 제1 바운딩 박스를 제거하지 않을 수 있다. 제1 바운딩 박스의 신뢰도가 기준값을 초과하지 않는 경우, 전자 장치(100)는 제1 바운딩 박스를 제거할 수 있다.The reference value may be, for example, an indicator related to the validity of the first bounding box. When the reliability of the first bounding box exceeds the reference value, the
단계 S960에서, 적어도 하나의 제1 바운딩 박스에 관하여 신뢰도가 기준값을 초과하지 않는 경우, 일 실시 예에 따른 전자 장치(100)는 대응되는 제1 바운딩 박스를 제거할 수 있다.In step S960, when the reliability of at least one first bounding box does not exceed the reference value, the
도 11의 단계 S1110을 함께 참조하면, 일 실시 예에 따른 전자 장치(100)는 제1_1 바운딩 박스(1101)에 관한 신뢰도를 0.91로 획득할 수 있다. 또한, 전자 장치(100)는 제1_1 바운딩 박스(1101) 안에 제1 서브 바운딩 박스(1110)가 배치되는지 여부에 따라, 제1_1 바운딩 박스(1101)에 대응되는 기준값을 획득할 수 있다. 제1_1 바운딩 박스(1101)에 대응되는 기준값은 예를 들어, 0.5일 수 있다. 제1_1 바운딩 박스(1101)에 관한 신뢰도(0.91)는 제1_1 바운딩 박스(1101)에 관한 기준값(0.5)을 초과하므로, 전자 장치(100)는 제1_1 바운딩 박스(1101)를 제거하지 않을 수 있다.Referring to step S1110 of FIG. 11 together, the
도 11의 단계 S1120을 함께 참조하면, 전자 장치(100)는 제1_2 바운딩 박스(1102)에 관한 신뢰도를 0.37로 획득할 수 있다. 또한, 전자 장치(100)는 제1_2 바운딩 박스 안에 제1 서브 바운딩 박스(1110)가 배치되는지 여부에 따라, 제1_2 바운딩 박스(1102)에 대응되는 기준값을 획득할 수 있다. 제1_2 바운딩 박스(1102)에 대응되는 기준값은 예를 들어, 0.5일 수 있다. 제1_2 바운딩 박스(1102)에 관한 신뢰도(0.37)는 제1_2 바운딩 박스(1102)에 관한 기준값(0.5)을 초과하지 않으므로, 전자 장치(100)는 제1_1 바운딩 박스(1101)를 제거할 수 있다.Referring to step S1120 of FIG. 11 together, the
도 11의 단계 S1130을 함께 참조하면, 전자 장치(100)는 제1_3 바운딩 박스(1103)에 관한 신뢰도를 0.31로 획득할 수 있다. 또한, 전자 장치(100)는 제1_3 바운딩 박스 안에 제1 서브 바운딩 박스(1110)가 배치되는지 여부에 따라, 제1_3 바운딩 박스(1103)에 대응되는 기준값을 획득할 수 있다. 제1_3 바운딩 박스(1103)에 대응되는 기준값은 예를 들어, 0.5일 수 있다. 제1_3 바운딩 박스(1103)에 관한 신뢰도(0.31)는 제1_3 바운딩 박스(1103)에 관한 기준값(0.5)을 초과하지 않으므로, 전자 장치(100)는 제1_3 바운딩 박스(1103)를 제거할 수 있다.Referring to step S1130 of FIG. 11 together, the
단계 S970에서, 일 실시 예에 따른 전자 장치(100)는 복수의 제1 바운딩 박스들(1101, 1102, 1103) 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체(300)를 검출할 수 있다. In step S970, the
예를 들어, 제1_1 바운딩 박스(1101)에 관한 신뢰도는 제1_1 바운딩 박스(1101)에 관한 기준값을 초과할 수 있다. 따라서, 전자 장치(100)는 제1_1 바운딩 박스(1101)를 제거하지 않을 수 있다. 전자 장치(100)는 제거되지 않은 제1_1 바운딩 박스(1101)를 통해 제1 객체(사람, person; 300)를 검출할 수 있다.For example, the reliability of the 1_1
도 10 및 도 11을 함께 참조하면, 단계 S950은 단계 S951 및 단계 S952를 포함할 수 있다. 단계 S951에서, 일 실시 예에 따른 전자 장치(100)는 제1 서브 바운딩 박스(1110)가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제1 기준값을 획득할 수 있다. 또한, 단계 S952에서, 일 실시 예에 따른 전자 장치(100)는 제1 서브 바운딩 박스(1110)가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제2 기준값을 획득할 수 있다. 제1 기준값은 제2 기준값보다 낮을 수 있다.Referring to FIGS. 10 and 11 together, step S950 may include steps S951 and S952. In step S951, the
도 10에서는 단계 S951 및 단계 S952의 순서가 명시된 것으로 도시되었으나, 이는 본 개시의 기술적 사상을 한정하지 않는다. 예를 들어, 단계 S952가 수행된 후, 단계 S951이 수행되는 것도 가능할 수 있다.In FIG. 10 , the sequence of steps S951 and S952 is shown as specified, but this does not limit the technical spirit of the present disclosure. For example, it may be possible that step S951 is performed after step S952 is performed.
도 11의 단계 S1110을 참조하면, 제1_1 바운딩 박스(1101) 내부 영역에 제1 서브 바운딩 박스(1110)가 배치될 수 있다. 전자 장치(100)는 제1 서브 바운딩 박스(1110)가 내부에 포함되는 제1_1 바운딩 박스(1101)에 대응되는 제1 기준값을 획득할 수 있다.Referring to step S1110 of FIG. 11 , a
도 11의 단계 S1120 및 단계 S1130을 참조하면, 제1_2 바운딩 박스(1102) 내부 영역에 제1 서브 바운딩 박스(1110)가 배치되지 않을 수 있다. 전자 장치(100)는 제1 서브 바운딩 박스(1110)가 내부에 포함되지 않는 제1_2 바운딩 박스(1102)에 대응되는 제2 기준값을 획득할 수 있다. 제1_3 바운딩 박스(1103) 내부 영역에 제1 서브 바운딩 박스(1110)가 배치되지 않을 수 있다. 전자 장치(100)는 제1 서브 바운딩 박스(1110)가 내부에 포함되지 않는 제1_3 바운딩 박스(1103)에 대응되는 제2 기준값을 획득할 수 있다.Referring to steps S1120 and S1130 of FIG. 11 , the
단계 S960은 단계 S961 내지 단계 S963을 포함할 수 있다. 단계 S961에서, 일 실시 예에 따른 전자 장치(100)는 제1 바운딩 박스 내부에 제1 서브 바운딩 박스(1110)가 포함되는지에 대한 정보를 획득할 수 있다.Step S960 may include steps S961 to S963. In step S961, the
단계 S962에서, 제1 바운딩 박스 내부에 제1 서브 바운딩 박스(1110)가 포함되는 경우, 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하는 제1 바운딩 박스에 관하여, 신뢰도가 제1 기준값을 초과하지 않는 경우 대응되는 제1 바운딩 박스를 제거할 수 있다.In step S962, when the
예를 들어, 도 11의 단계 S1110을 참조하면, 제1_1 바운딩 박스(1101) 내부에 제1 서브 바운딩 박스(1110)가 포함되는 경우, 전자 장치(100)는 제1_1 바운딩 박스(1101)에 대응되는 제1 기준값을 획득할 수 있다. 제1_1 바운딩 박스(1101)에 관한 신뢰도는 예를 들어 0.91일 수 있고, 제1 기준값은 예를 들어 0.5일 수 있다. 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하는 제1_1 바운딩 박스(1101)에 관하여, 신뢰도(0.91)가 제1 기준값(0.5)을 초과하므로 대응되는 제1_1 바운딩 박스(1101)를 제거하지 않을 수 있다.For example, referring to step S1110 of FIG. 11 , when the
다만, 도시되지는 않았지만, 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하는 제1_1 바운딩 박스(1101)에 관하여, 신뢰도가 제1 기준값을 초과하지 않았다면, 대응되는 제1_1 바운딩 박스(1101)를 제거할 수 있다.However, although not shown, the
다른 예로, 도 11의 단계 S1120을 참조하면, 제1_2 바운딩 박스(1102) 내부에 제1 서브 바운딩 박스(1110)가 포함되지 않는 경우, 전자 장치(100)는 제1_2 바운딩 박스(1102)에 대응되는 제2 기준값을 획득할 수 있다. 제1_2 바운딩 박스(1102)에 관한 신뢰도는 예를 들어 0.37일 수 있고, 제2 기준값은 예를 들어 0.7일 수 있다. 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하지 않는 제1_2 바운딩 박스(1102)에 관하여, 신뢰도(0.37)가 제2 기준값(0.7)을 초과하지 않므로 대응되는 제1_2 바운딩 박스(1102)를 제거할 수 있다.As another example, referring to step S1120 of FIG. 11 , when the
다만, 도시되지는 않았지만, 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하지 않는 제1_2 바운딩 박스(1102)에 관하여, 신뢰도가 제2 기준값을 초과했다면, 대응되는 제1_2 바운딩 박스(1102)를 제거하지 않을 수 있다.However, although not shown, the
다른 예로, 도 11의 단계 S1130을 참조하면, 제1_3 바운딩 박스(1103) 내부에 제1 서브 바운딩 박스(1110)가 포함되지 않는 경우, 전자 장치(100)는 제1_3 바운딩 박스(1103)에 대응되는 제2 기준값을 획득할 수 있다. 제1_3 바운딩 박스(1103)에 관한 신뢰도는 예를 들어 0.31일 수 있고, 제2 기준값은 예를 들어 0.7일 수 있다. 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하지 않는 제1_3 바운딩 박스(1103)에 관하여, 신뢰도(0.31)가 제2 기준값(0.7)을 초과하지 않므로 대응되는 제1_3 바운딩 박스(1103)를 제거할 수 있다.As another example, referring to step S1130 of FIG. 11 , when the
다만, 도시되지는 않았지만, 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하지 않는 제1_3 바운딩 박스(1103)에 관하여, 신뢰도가 제2 기준값을 초과했다면, 대응되는 제1_3 바운딩 박스(1103)를 제거하지 않을 수 있다.However, although not shown, the
도 12 및 13은 본 개시의 일 실시 예에 따른 객체를 검출하는 방법을 설명하기 위한 흐름도들이다. 도 14는 본 개시의 일 실시 예에 따른 객체를 검출하는 동작을 설명하기 위한 도면이다. 이하에서는, 도 14을 함께 참조하여, 도 12 및 도 13의 흐름도에 따른 전자 장치(100)의 동작 방법을 설명한다.12 and 13 are flowcharts for describing a method of detecting an object according to an embodiment of the present disclosure. 14 is a diagram for explaining an operation of detecting an object according to an embodiment of the present disclosure. Hereinafter, an operating method of the
설명의 편의상, 도 3 및 도 9 내지 도 11을 이용하여 설명한 것과 중복되는 것은 간략히 하거나 생략한다.For convenience of description, overlapping descriptions with those described with reference to FIGS. 3 and 9 to 11 are simplified or omitted.
도 12 및 도 14를 함께 참조하면 단계 S1210에서, 일 실시 예에 따른 전자 장치(100)는 객체를 포함하는 이미지(200)를 획득할 수 있다. 이미지(200)에 포함되는 객체는 제1 객체(300), 제2 객체(310) 및 제3 객체(330, 340)를 포함할 수 있다. 제2 객체(310) 및 제3 객체(330, 340)는 제1 객체(300)의 일부일 수 있다.Referring to FIGS. 12 and 14 together, in step S1210, the
단계 S1220에서, 일 실시 예에 따른 전자 장치(100)는 이미지(200)에 포함된 제1 객체(300)에 대응되는 복수의 제1 바운딩 박스들(1101, 1102, 1103)을 생성할 수 있다.In operation S1220, the
전자 장치(100)는 복수의 제1 바운딩 박스들(1101, 1102, 1103) 내부 영역에 포함되는 객체의 종류를 제1 객체(300)로 특정하는 제1 클래스를 복수의 제1 바운딩 박스들(1101, 1102, 1103)에 레이블링할 수 있다. 또한, 전자 장치(100)는 제1 객체(300)로 특정된 객체의 종류가 복수의 제1 바운딩 박스들(1101, 1102, 1103) 내부 영역에 실제로 포함된 객체의 종류와 일치할 확률인 신뢰도를 복수의 제1 바운딩 박스들(1101, 1102, 1103)에 레이블링할 수 있다.The
도 14에 도시된 바와 같이, 전자 장치(100)는 제1_1 바운딩 박스(1101), 제1_2 바운딩 박스(1102) 및 제1_3 바운딩 박스(1103)를 생성할 수 있다.As shown in FIG. 14 , the
제1_1 바운딩 박스 내지 제1_3 바운딩 박스(1103)는 각각 그 내부에 포함된 객체를 사람(person)으로 특정하는 제1 클래스로 레이블링될 수 있고, 각각의 내부 영역에 실제로 포함된 객체의 종류와 사람(person)이 일치할 확률인 신뢰도가 각각 레이블링될 수 있다.Each of the 1_1 to 1_3 bounding
단계 S1230에서, 일 실시 예에 따른 전자 장치(100)는 이미지(200)에 포함된 제2 객체(310)에 대응되는 제1 서브 바운딩 박스(1110)와 제3 객체(330, 340)에 대응되는 제2 서브 바운딩 박스(1120, 1121)를 생성할 수 있다. 도 14에 도시된 바와 같이, 전자 장치(100)는 제1 서브 바운딩 박스(1110) 및 제2 서브 바운딩 박스(1120, 1121)를 생성할 수 있다. In step S1230, the
제1 서브 바운딩 박스(1110)는 그 내부에 포함된 객체를 얼굴(face)으로 특정하는 제2 클래스로 레이블링될 수 있고, 제1 서브 바운딩 박스(1110)의 내부 영역에 실제로 포함된 객체의 종류와 얼굴(face)이 일치할 확률인 신뢰도가 각각 레이블링될 수 있다. 제2 서브 바운딩 박스(1120, 1121)는 그 내부에 포함된 객체를 손(hand)으로 특정하는 제3 클래스로 레이블링될 수 있고, 제2 서브 바운딩 박스(1120, 1121)의 내부 영역에 실제로 포함된 객체의 종류와 손(hand)이 일치할 확률인 신뢰도가 각각 레이블링될 수 있다.The
예를 들어, 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미할 수 있지만, 이는 예시일 뿐, 본 개시의 기술적 사상은 이에 한정되지 않는다.For example, the second class may mean at least one of a face class, an ear class, and a hand class, but this is only an example, and the technical idea of the present disclosure is not limited thereto.
단계 S1240에서, 일 실시 예에 따른 전자 장치(100)는 제1 바운딩 박스 내부 영역에 포함되는 객체가 제1 객체(300)와 일치할 확률에 관한 신뢰도를 획득할 수 있다.In step S1240, the
전자 장치(100)는 제1 바운딩 박스 내부 영역에 포함되는 객체의 종류를 제1 객체(300)로 특정하는 제1 클래스를 제1 바운딩 박스에 레이블링할 수 있다. 또한, 전자 장치(100)는 제1 객체(300)로 특정된 객체의 종류가 제1 바운딩 박스 내부 영역에 실제로 포함된 객체의 종류와 일치할 확률인 신뢰도를 제1 바운딩 박스에 레이블링할 수 있다. 전자 장치(100)는 각각의 제1 바운딩 박스에 레이블링된 신뢰도를 획득할 수 있다. The
참고적으로, 설명의 편의상, 단계 S1250 및 S1260에서 설명되는 동작은 도 9의 단계 S950 및 S960에서 설명되는 동작과 동일하므로 중복되는 설명은 생략하고, 단계 S1251 및 S1261의 동작을 중심으로 설명한다.For reference, for convenience of description, operations described in steps S1250 and S1260 are the same as those described in steps S950 and S960 of FIG.
단계 S1251에서, 일 실시 예에 따른 전자 장치(100)는 제1 바운딩 박스 안에 제2 서브 바운딩 박스(1120, 1121)가 배치되는지 여부에 따라, 제1 바운딩 박스에 대응되는 기준값을 획득할 수 있다.In step S1251, the
기준값은 예를 들어, 임의로 설정된 값일 수 있다. 전자 장치(100)는 사용자 입력에 따라 기준값을 설정할 수도 있고, 케이스에 따라 설정된 기준값들을 서버에 의해 수신할 수도 있으나, 이는 예시일 뿐, 본 개시의 기술적 사상은 이를 한정하지 않는다.The reference value may be, for example, an arbitrarily set value. The
기준값은 예를 들어, 제1 바운딩 박스의 유효도에 관련된 지표일 수 있다. 제1 바운딩 박스의 신뢰도가 기준값을 초과하는 경우, 일 실시 예에 따른 전자 장치(100)는 제1 바운딩 박스를 제거하지 않을 수 있다. 제1 바운딩 박스의 신뢰도가 기준값을 초과하지 않는 경우, 전자 장치(100)는 제1 바운딩 박스를 제거할 수 있다.The reference value may be, for example, an indicator related to the validity of the first bounding box. When the reliability of the first bounding box exceeds the reference value, the
단계 S1261에서, 적어도 하나의 제1 바운딩 박스에 관하여 신뢰도가 기준값을 초과하지 않는 경우, 일 실시 예에 따른 전자 장치(100)는 대응되는 제1 바운딩 박스를 제거할 수 있다.In operation S1261, when the reliability of at least one first bounding box does not exceed the reference value, the
도 14의 단계 S1410을 함께 참조하면, 일 실시 예에 따른 전자 장치(100)는 제1_1 바운딩 박스(1101)에 관한 신뢰도를 0.91로 획득할 수 있다. 또한, 전자 장치(100)는 제1_1 바운딩 박스(1101) 안에 제2 서브 바운딩 박스(1120)가 배치되는지 여부에 따라, 제1_1 바운딩 박스(1101)에 대응되는 기준값을 획득할 수 있다. 제1_1 바운딩 박스(1101)에 대응되는 기준값은 예를 들어, 0.5일 수 있다. 제1_1 바운딩 박스(1101)에 관한 신뢰도(0.91)는 제1_1 바운딩 박스(1101)에 관한 기준값(0.5)을 초과하므로, 전자 장치(100)는 제1_1 바운딩 박스(1101)를 제거하지 않을 수 있다.Referring to step S1410 of FIG. 14 together, the
도 14의 단계 S1420을 함께 참조하면, 전자 장치(100)는 제1_2 바운딩 박스(1102)에 관한 신뢰도를 0.37로 획득할 수 있다. 또한, 전자 장치(100)는 제1_2 바운딩 박스 안에 제2 서브 바운딩 박스(1121)가 배치되는지 여부에 따라, 제1_2 바운딩 박스(1102)에 대응되는 기준값을 획득할 수 있다. 제1_2 바운딩 박스(1102)에 대응되는 기준값은 예를 들어, 0.5일 수 있다. 제1_2 바운딩 박스(1102)에 관한 신뢰도(0.37)는 제1_2 바운딩 박스(1102)에 관한 기준값(0.5)을 초과하지 않으므로, 전자 장치(100)는 제1_1 바운딩 박스(1101)를 제거할 수 있다.Referring to step S1420 of FIG. 14 together, the
도 14의 단계 S1430을 함께 참조하면, 전자 장치(100)는 제1_3 바운딩 박스(1103)에 관한 신뢰도를 0.31로 획득할 수 있다. 또한, 전자 장치(100)는 제1_3 바운딩 박스 안에 제2 서브 바운딩 박스(1120, 1121)가 배치되는지 여부에 따라, 제1_3 바운딩 박스(1103)에 대응되는 기준값을 획득할 수 있다. 제1_3 바운딩 박스(1103)에 대응되는 기준값은 예를 들어, 0.5일 수 있다. 제1_3 바운딩 박스(1103)에 관한 신뢰도(0.31)는 제1_3 바운딩 박스(1103)에 관한 기준값(0.5)을 초과하지 않으므로, 전자 장치(100)는 제1_3 바운딩 박스(1103)를 제거할 수 있다.Referring also to step S1430 of FIG. 14 , the
단계 S1270에서, 일 실시 예에 따른 전자 장치(100)는 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 제1 객체(300)를 검출할 수 있다. In step S1270, the
예를 들어, 제1_1 바운딩 박스(1101)에 관한 신뢰도는 제1_1 바운딩 박스(1101)에 관한 기준값을 초과할 수 있다. 따라서, 전자 장치(100)는 제1_1 바운딩 박스(1101)를 제거하지 않을 수 있다. 전자 장치(100)는 제거되지 않은 제1_1 바운딩 박스(1101)를 통해 제1 객체(사람, person; 300)를 검출할 수 있다.For example, the reliability of the 1_1
도 13 및 도 14을 함께 참조하면, 단계 S1251은 단계 S1252 및 단계 S1253을 포함할 수 있다. 단계 S1252에서, 일 실시 예에 따른 전자 장치(100)는 제2 서브 바운딩 박스(1120, 1121)가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제3 기준값을 획득할 수 있다. 또한, 단계 S1253에서, 일 실시 예에 따른 전자 장치(100)는 제2 서브 바운딩 박스(1120, 1121)가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제4 기준값을 획득할 수 있다. 제3 기준값은 제4 기준값보다 낮을 수 있다.Referring to FIGS. 13 and 14 together, step S1251 may include steps S1252 and S1253. In step S1252, the
도 13에서는 단계 S1252 및 단계 S1253의 순서가 명시된 것으로 도시되었으나, 이는 본 개시의 기술적 사상을 한정하지 않는다. 예를 들어, 단계 S1253가 수행된 후, 단계 S1252이 수행되는 것도 가능할 수 있다.Although the order of steps S1252 and step S1253 is illustrated in FIG. 13 as specified, this does not limit the technical spirit of the present disclosure. For example, it may be possible that step S1252 is performed after step S1253 is performed.
도 14의 단계 S1410을 참조하면, 제1_1 바운딩 박스(1101) 내부 영역에 제2 서브 바운딩 박스(1120)가 배치될 수 있다. 전자 장치(100)는 제2 서브 바운딩 박스(1120)가 내부에 포함되는 제1_1 바운딩 박스(1101)에 대응되는 제3 기준값을 획득할 수 있다.Referring to step S1410 of FIG. 14 , a second
도 14의 단계 S1420을 참조하면, 마찬가지로, 제1_2 바운딩 박스(1102) 내부 영역에 제2 서브 바운딩 박스(1121)가 배치될 수 있다. 전자 장치(100)는 제2 서브 바운딩 박스(1121)가 내부에 포함되는 제1_2 바운딩 박스(1102)에 대응되는 제3 기준값을 획득할 수 있다.Referring to step S1420 of FIG. 14 , similarly, a second
도 14의 단계 S1430을 참조하면, 제1_3 바운딩 박스(1103) 내부 영역에 제2 서브 바운딩 박스(1120, 1121)가 배치되지 않을 수 있다. 전자 장치(100)는 제2 서브 바운딩 박스(1120, 1121)가 내부에 포함되지 않는 제1_3 바운딩 박스(1103)에 대응되는 제4 기준값을 획득할 수 있다.Referring to step S1430 of FIG. 14 , the second
단계 S1261은 단계 S1262 내지 단계 S1264를 포함할 수 있다. 단계 S1262에서, 일 실시 예에 따른 전자 장치(100)는 제1 바운딩 박스 내부에 제2 서브 바운딩 박스(1120, 1121)가 포함되는지에 대한 정보를 획득할 수 있다.Step S1261 may include steps S1262 to S1264. In step S1262, the
단계 S1263에서, 제1 바운딩 박스 내부에 제2 서브 바운딩 박스가 포함되는 경우, 전자 장치(100)는 내부에 제2 서브 바운딩 박스를 포함하는 제1 바운딩 박스에 관하여, 신뢰도가 제3 기준값을 초과하지 않는 경우 대응되는 제1 바운딩 박스를 제거할 수 있다.In step S1263, when the first bounding box includes the second sub-bounding box, the
예를 들어, 도 14의 단계 S1410을 참조하면, 제1_1 바운딩 박스(1101) 내부에 제2 서브 바운딩 박스(1120)가 포함되는 경우, 전자 장치(100)는 제1_1 바운딩 박스(1101)에 대응되는 제3 기준값을 획득할 수 있다. 제1_1 바운딩 박스(1101)에 관한 신뢰도는 예를 들어 0.91일 수 있고, 제3 기준값은 예를 들어 0.4일 수 있다. 전자 장치(100)는 내부에 제2 서브 바운딩 박스(1120)를 포함하는 제1_1 바운딩 박스(1101)에 관하여, 신뢰도(0.91)가 제3 기준값(0.4)을 초과하므로 대응되는 제1_1 바운딩 박스(1101)를 제거하지 않을 수 있다.For example, referring to step S1410 of FIG. 14 , when the
또한 참고적으로, 도 12의 단계 S1250 및 S1260을 고려하면, 도 14에 도시된 바와 같이 제1_1 바운딩 박스(1101) 내부에 제1 서브 바운딩 박스(1110)가 포함되는 경우, 전자 장치(100)는 제1_1 바운딩 박스(1101)에 대응되는 제1 기준값을 획득할 수 있다. 제1_1 바운딩 박스(1101)에 관한 신뢰도는 예를 들어, 0.91일 수 있고, 제1 기준값은 0.5일 수 있다. 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하는 제1_1 바운딩 박스(1101)에 관하여, 신뢰도(0.91)가 제1 기준값(0.5)을 초과하므로 대응되는 제1_1 바운딩 박스(1101)를 제거하지 않을 수 있다. 즉, 전자 장치(100)는 제1 서브 바운딩 박스(1110) 및 제2 서브 바운딩 박스(1120, 1121)가 배치되는 위치를 함께 고려하여, 제1 바운딩 박스를 제거할 것인지를 결정할 수 있다.Also for reference, considering steps S1250 and S1260 of FIG. 12 , when the
다만, 도시되지는 않았지만, 전자 장치(100)는 내부에 제2 서브 바운딩 박스(1120)를 포함하는 제1_1 바운딩 박스(1101)에 관하여, 신뢰도가 제3 기준값을 초과하지 않았다면, 대응되는 제1_1 바운딩 박스(1101)를 제거할 수 있다.However, although not shown, the
도 14의 단계 S1420을 참조하면, 제1_2 바운딩 박스(1102) 내부에 제2 서브 바운딩 박스(1121)가 포함되는 경우, 전자 장치(100)는 제1_2 바운딩 박스(1102)에 대응되는 제3 기준값을 획득할 수 있다. 제1_2 바운딩 박스(1102)에 관한 신뢰도는 예를 들어 0.37일 수 있고, 제3 기준값은 예를 들어 0.4일 수 있다. 전자 장치(100)는 내부에 제2 서브 바운딩 박스(1121)를 포함하는 제1_2 바운딩 박스(1102)에 관하여, 신뢰도(0.37)가 제3 기준값(0.4)을 초과하지 않으므로 대응되는 제1_2 바운딩 박스(1102)를 제거할 수 있다.Referring to step S1420 of FIG. 14 , when the
또한 참고적으로, 도 12의 단계 S1250 및 S1260을 고려하면, 도 14에 도시된 바와 같이, 제1_2 바운딩 박스(1102) 내부에 제1 서브 바운딩 박스(1110)가 포함되지 않는 경우, 전자 장치(100)는 제1_2 바운딩 박스(1102)에 대응되는 제2 기준값을 획득할 수 있다. 제1_2 바운딩 박스(1102)에 관한 신뢰도는 예를 들어, 0.37일 수 있고, 제2 기준값은 0.7일 수 있다. 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하지 않는 제1_2 바운딩 박스(1102)에 관하여, 신뢰도(0.37)가 제2 기준값(0.7)을 초과하지 않으므로 대응되는 제1_2 바운딩 박스(1102)를 제거할 수 있다. 즉, 전자 장치(100)는 제1 서브 바운딩 박스(1110) 및 제2 서브 바운딩 박스(1121)가 배치되는 위치를 함께 고려하여, 제1 바운딩 박스를 제거할 것인지를 결정할 수 있다.Also for reference, considering steps S1250 and S1260 of FIG. 12 , as shown in FIG. 14 , when the
다만, 도시되지는 않았지만, 전자 장치(100)는 내부에 제2 서브 바운딩 박스(1121)를 포함하는 제1_2 바운딩 박스(1102)에 관하여, 신뢰도가 제3 기준값을 초과했다면, 대응되는 제1_2 바운딩 박스(1102)를 제거하지 않을 수 있다.However, although not shown, if the reliability of the 1_2
도 14의 단계 S1430을 참조하면, 제1_3 바운딩 박스(1103) 내부에 제2 서브 바운딩 박스(1120, 1121)가 포함되지 않는 경우, 전자 장치(100)는 제1_3 바운딩 박스(1103)에 대응되는 제4 기준값을 획득할 수 있다. 제1_3 바운딩 박스(1103)에 관한 신뢰도는 예를 들어 0.31일 수 있고, 제4 기준값은 예를 들어 0.9일 수 있다. 전자 장치(100)는 내부에 제2 서브 바운딩 박스(1120, 1121)를 포함하지 않는 제1_3 바운딩 박스(1103)에 관하여, 신뢰도(0.31)가 제2 기준값(0.9)을 초과하지 않으므로 대응되는 제1_3 바운딩 박스(1103)를 제거할 수 있다.Referring to step S1430 of FIG. 14 , when the second
또한 참고적으로, 도 12의 단계 S1250 및 S1260을 고려하면, 도 14에 도시된 바와 같이, 제1_3 바운딩 박스(1103) 내부에 제1 서브 바운딩 박스(1110)가 포함되지 않는 경우, 전자 장치(100)는 제1_3 바운딩 박스(1103)에 대응되는 제2 기준값을 획득할 수 있다. 제1_3 바운딩 박스(1103)에 관한 신뢰도는 예를 들어, 0.31일 수 있고, 제2 기준값은 0.7일 수 있다. 전자 장치(100)는 내부에 제1 서브 바운딩 박스(1110)를 포함하지 않는 제1_3 바운딩 박스(1103)에 관하여, 신뢰도(0.31)가 제2 기준값(0.7)을 초과하지 않으므로 대응되는 제1_3 바운딩 박스(1103)를 제거할 수 있다. 즉, 전자 장치(100)는 제1 서브 바운딩 박스(1110) 및 제2 서브 바운딩 박스(1120, 1121)가 배치되는 위치를 함께 고려하여, 제1 바운딩 박스를 제거할 것인지를 결정할 수 있다.Also for reference, considering steps S1250 and S1260 of FIG. 12 , as shown in FIG. 14 , when the
다만, 도시되지는 않았지만, 전자 장치(100)는 내부에 제2 서브 바운딩 박스(1120, 1121)를 포함하지 않는 제1_3 바운딩 박스(1103)에 관하여, 신뢰도가 제4 기준값을 초과했다면, 대응되는 제1_3 바운딩 박스(1103)를 제거하지 않을 수 있다. 즉, 전자 장치(100)는 제1 서브 바운딩 박스(1110) 및 제2 서브 바운딩 박스(1120, 1121)가 배치되는 위치를 함께 고려하여, 제1 바운딩 박스를 제거할 것인지를 결정할 수 있다.However, although not shown, the
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary storage medium' only means that it is a tangible device and does not contain signals (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium and temporary It does not discriminate if it is saved as . For example, a 'non-temporary storage medium' may include a buffer in which data is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store or between two user devices (eg smartphones). It can be distributed (e.g., downloaded or uploaded) directly or online. In the case of online distribution, at least a part of a computer program product (eg, a downloadable app) is stored on a device-readable storage medium such as a memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
Claims (20)
제1 객체 및 상기 제1 객체의 일부인 제2 객체를 포함하는 상기 객체를 포함하는 상기 이미지를 획득하는 단계;
상기 이미지에 포함된 상기 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하는 단계;
상기 이미지에 포함된 상기 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하는 단계;
상기 제1 서브 바운딩 박스와 상기 제1 바운딩 박스 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득하는 단계;
상기 복수의 제1 바운딩 박스들 중, 상기 제1 서브 바운딩 박스와의 상기 제1 오버랩 스코어가 제1 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하는 단계; 및
상기 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 상기 제1 객체를 검출하는 단계를 포함하는 방법.As an object detection method for detecting an object in an image using an artificial intelligence model,
acquiring the image including the object including a first object and a second object that is part of the first object;
generating a plurality of first bounding boxes corresponding to the first object included in the image;
generating a first sub-bounding box corresponding to the second object included in the image;
obtaining a first overlap score related to an overlapping degree between the first sub-bounding box and the first bounding box;
removing at least one first bounding box whose first overlap score with the first sub-bounding box exceeds a first threshold value, among the plurality of first bounding boxes; and
and detecting the first object through a first bounding box that is not removed among the plurality of first bounding boxes.
상기 객체는 상기 제1 객체의 일부인 제3 객체를 더 포함하고,
상기 이미지에 포함된 상기 제3 객체에 대응되는 제2 서브 바운딩 박스를 생성하는 단계; 및
상기 제2 서브 바운딩 박스와 상기 제1 바운딩 박스 간의 겹치는 정도에 관한 제2 오버랩 스코어를 획득하는 단계; 및
상기 복수의 제1 바운딩 박스들 중, 상기 제2 서브 바운딩 박스와의 상기 제2 오버랩 스코어가 제2 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하는 단계를 더 포함하는 방법.According to claim 1,
The object further includes a third object that is part of the first object,
generating a second sub-bounding box corresponding to the third object included in the image; and
obtaining a second overlap score related to an overlap between the second sub-bounding box and the first bounding box; and
The method further comprising removing at least one first bounding box whose second overlap score with the second sub-bounding box exceeds a second threshold value, among the plurality of first bounding boxes.
상기 복수의 제1 바운딩 박스들은 제1 기준 바운딩 박스를 포함하고,
상기 제1 기준 바운딩 박스를 제외한 상기 복수의 제1 바운딩 박스들 중 하나와 상기 제1 기준 바운딩 박스 간의 겹치는 정도에 관한 제3 오버랩 스코어를 획득하는 단계;
상기 복수의 제1 바운딩 박스들 중, 상기 제1 기준 바운딩 박스와의 상기 제3 오버랩 스코어가 제3 임계값을 넘어서는 상기 적어도 하나의 제1 바운딩 박스를 제거하는 단계를 더 포함하는, 방법.According to claim 1,
The plurality of first bounding boxes include a first reference bounding box,
obtaining a third overlap score related to an overlapping degree between one of the plurality of first bounding boxes excluding the first reference bounding box and the first reference bounding box;
The method further comprises removing the at least one first bounding box, of the plurality of first bounding boxes, for which the third overlap score with the first reference bounding box exceeds a third threshold.
상기 복수의 제1 바운딩 박스들은, 상기 제1 객체를 특정하는 제1 클래스로 레이블링되고,
상기 제1 서브 바운딩 박스는, 상기 제2 객체를 특정하는 제2 클래스로 레이블링되는, 방법.According to claim 1,
The plurality of first bounding boxes are labeled with a first class specifying the first object,
The first sub-bounding box is labeled with a second class specifying the second object.
상기 제1 클래스는 사람(person) 클래스를 의미하고,
상기 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미하는, 방법.According to claim 4,
The first class means a person class,
The second class means at least one of a face class, an ear class, and a hand class.
제1 객체 및 상기 제1 객체의 일부인 제2 객체를 포함하는 상기 객체를 포함하는 상기 이미지를 획득하는 단계;
상기 이미지에 포함된 상기 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하는 단계;
상기 이미지에 포함된 상기 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하는 단계;
상기 제1 바운딩 박스 내부 영역에 포함되는 객체가 상기 제1 객체와 일치할 확률에 관한 신뢰도를 획득하는 단계;
상기 제1 바운딩 박스 안에 상기 제1 서브 바운딩 박스가 배치되는지 여부에 따라, 상기 제1 바운딩 박스에 대응되는 기준값을 획득하는 단계;
상기 적어도 하나의 제1 바운딩 박스의 신뢰도가 상기 적어도 하나의 제1 바운딩 박스에 대응되는 상기 기준값을 넘어서지 못하는, 상기 적어도 하나의 제1 바운딩 박스를 제거하는 단계; 및
상기 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 상기 제1 객체를 검출하는 단계를 포함하는, 방법.As an object detection method for detecting an object in an image using an artificial intelligence model,
acquiring the image including the object including a first object and a second object that is part of the first object;
generating a plurality of first bounding boxes corresponding to the first object included in the image;
generating a first sub-bounding box corresponding to the second object included in the image;
obtaining a degree of reliability about a probability that an object included in the inner region of the first bounding box coincides with the first object;
obtaining a reference value corresponding to the first bounding box according to whether the first sub-bounding box is disposed within the first bounding box;
removing the at least one first bounding box whose reliability does not exceed the reference value corresponding to the at least one first bounding box; and
and detecting the first object through a first bounding box that is not removed among the plurality of first bounding boxes.
상기 기준값은 제1 기준값 및 제2 기준값을 포함하고,
상기 기준값을 획득하는 단계는,
상기 제1 서브 바운딩 박스가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제1 기준값을 획득하는 단계; 및
상기 제1 서브 바운딩 박스가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제2 기준값을 획득하는 단계를 포함하고,
상기 제1 기준값은 상기 제2 기준값보다 낮은, 방법.According to claim 6,
The reference value includes a first reference value and a second reference value,
The step of obtaining the reference value,
obtaining a first reference value corresponding to at least one first bounding box in which the first sub-bounding box is included; and
obtaining a second reference value corresponding to at least one first bounding box in which the first sub-bounding box is not included;
The first reference value is lower than the second reference value.
상기 복수의 제1 바운딩 박스들은, 상기 제1 객체를 특정하는 제1 클래스로 레이블링되고,
상기 제1 서브 바운딩 박스는, 상기 제2 객체를 특정하는 제2 클래스로 레이블되는, 방법.According to claim 6,
The plurality of first bounding boxes are labeled with a first class specifying the first object,
Wherein the first sub-bounding box is labeled with a second class specifying the second object.
상기 제1 클래스는 사람(person) 클래스를 의미하고,
상기 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미하는, 방법.According to claim 8,
The first class means a person class,
The second class means at least one of a face class, an ear class, and a hand class.
상기 객체는 상기 제1 객체의 일부인 제3 객체를 더 포함하고,
상기 이미지에 포함된 상기 제3 객체에 대응되는 제2 서브 바운딩 박스를 생성하는 단계;
상기 제2 서브 바운딩 박스가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제3 기준값을 획득하는 단계;
상기 제2 서브 바운딩 박스가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제4 기준값을 획득하는 단계;
상기 적어도 하나의 제1 바운딩 박스의 신뢰도가 상기 적어도 하나의 제1 바운딩 박스에 대응되는 상기 제3 기준값 및 상기 제4 기준값 중 하나를 넘어서지 못하는, 상기 적어도 하나의 제1 바운딩 박스를 제거하는 단계를 더 포함하고,
상기 제3 기준값은 상기 제4 기준값보다 낮은, 방법.According to claim 6,
The object further includes a third object that is part of the first object,
generating a second sub-bounding box corresponding to the third object included in the image;
obtaining a third reference value corresponding to at least one first bounding box in which the second sub-bounding box is included;
obtaining a fourth reference value corresponding to at least one first bounding box in which the second sub-bounding box is not included;
removing the at least one first bounding box whose reliability of the at least one first bounding box does not exceed one of the third reference value and the fourth reference value corresponding to the at least one first bounding box; contain more,
The third reference value is lower than the fourth reference value.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 객체 및 상기 제1 객체의 일부인 제2 객체를 포함하는 상기 객체를 포함하는 상기 이미지를 획득하고,
상기 이미지에 포함된 상기 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하고,
상기 이미지에 포함된 상기 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하고,
상기 제1 서브 바운딩 박스와 상기 제1 바운딩 박스 간의 겹치는 정도에 관한 제1 오버랩 스코어를 획득하고,
상기 복수의 제1 바운딩 박스들 중, 상기 제1 서브 바운딩 박스와의 상기 제1 오버랩 스코어가 제1 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하고,
상기 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 상기 제1 객체를 검출하는, 전자 장치.An electronic device for detecting an object in an image using an artificial intelligence model,
a memory that stores one or more instructions; and
and at least one processor to execute the one or more instructions stored in the memory, wherein the at least one processor executes the one or more instructions to:
obtaining the image including the object including a first object and a second object that is part of the first object;
Creating a plurality of first bounding boxes corresponding to the first object included in the image;
Creating a first sub-bounding box corresponding to the second object included in the image;
Obtaining a first overlap score related to the degree of overlap between the first sub-bounding box and the first bounding box;
Among the plurality of first bounding boxes, at least one first bounding box having the first overlap score with the first sub-bounding box exceeding a first threshold value is removed;
The electronic device detects the first object through a first bounding box that is not removed among the plurality of first bounding boxes.
상기 객체는 상기 제1 객체의 일부인 제3 객체를 더 포함하고,
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 이미지에 포함된 상기 제3 객체에 대응되는 제2 서브 바운딩 박스를 생성하고,
상기 제2 서브 바운딩 박스와 상기 제1 바운딩 박스 간의 겹치는 정도에 관한 제2 오버랩 스코어를 획득하고,
상기 복수의 제1 바운딩 박스들 중, 상기 제2 서브 바운딩 박스와의 상기 제2 오버랩 스코어가 제2 임계값을 넘어서는 적어도 하나의 제1 바운딩 박스를 제거하는, 전자 장치.According to claim 11,
The object further includes a third object that is part of the first object,
The at least one processor, by executing the one or more instructions,
Creating a second sub-bounding box corresponding to the third object included in the image;
Obtaining a second overlap score related to the degree of overlap between the second sub-bounding box and the first bounding box;
Among the plurality of first bounding boxes, at least one first bounding box whose second overlap score with the second sub-bounding box exceeds a second threshold is removed.
상기 복수의 제1 바운딩 박스들은 제1 기준 바운딩 박스를 포함하고,
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 제1 기준 바운딩 박스를 제외한 상기 복수의 제1 바운딩 박스들 중 하나와 상기 제1 기준 바운딩 박스 간의 겹치는 정도에 관한 제3 오버랩 스코어를 획득하고,
상기 복수의 제1 바운딩 박스들 중, 상기 제1 기준 바운딩 박스와의 상기 제3 오버랩 스코어가 제3 임계값을 넘어서는 상기 적어도 하나의 제1 바운딩 박스를 제거하는, 전자 장치.According to claim 11,
The plurality of first bounding boxes include a first reference bounding box,
The at least one processor, by executing the one or more instructions,
Obtaining a third overlap score related to an overlap between one of the plurality of first bounding boxes excluding the first reference bounding box and the first reference bounding box;
Among the plurality of first bounding boxes, the at least one first bounding box having the third overlap score with the first reference bounding box exceeding a third threshold is removed.
상기 복수의 제1 바운딩 박스들은, 상기 제1 객체를 특정하는 제1 클래스로 레이블링되고,
상기 제1 서브 바운딩 박스는, 상기 제2 객체를 특정하는 제2 클래스로 레이블링되는, 전자 장치.According to claim 11,
The plurality of first bounding boxes are labeled with a first class specifying the first object,
The first sub-bounding box is labeled with a second class specifying the second object.
상기 제1 클래스는 사람(person) 클래스를 의미하고,
상기 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미하는, 전자 장치.According to claim 14,
The first class means a person class,
The second class means at least one of a face class, an ear class, and a hand class.
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 객체 및 상기 제1 객체의 일부인 제2 객체를 포함하는 상기 객체를 포함하는 상기 이미지를 획득하고,
상기 이미지에 포함된 상기 제1 객체에 대응되는 복수의 제1 바운딩 박스들을 생성하고,
상기 이미지에 포함된 상기 제2 객체에 대응되는 제1 서브 바운딩 박스를 생성하고,
상기 제1 바운딩 박스 내부 영역에 포함되는 객체가 상기 제1 객체와 일치할 확률에 관한 신뢰도를 획득하고,
상기 제1 바운딩 박스 안에 상기 제1 서브 바운딩 박스가 배치되는지 여부에 따라, 상기 제1 바운딩 박스에 대응되는 기준값을 획득하고,
상기 적어도 하나의 제1 바운딩 박스의 신뢰도가 상기 적어도 하나의 제1 바운딩 박스에 대응되는 상기 기준값을 넘어서지 못하는, 상기 적어도 하나의 제1 바운딩 박스를 제거하고,
상기 복수의 제1 바운딩 박스들 중 제거되지 않은 제1 바운딩 박스를 통해 상기 제1 객체를 검출하는, 전자 장치.An electronic device for detecting an object in an image using an artificial intelligence model,
a memory that stores one or more instructions; and
and at least one processor to execute the one or more instructions stored in the memory, wherein the at least one processor executes the one or more instructions to:
obtaining the image including the object including a first object and a second object that is part of the first object;
Creating a plurality of first bounding boxes corresponding to the first object included in the image;
Creating a first sub-bounding box corresponding to the second object included in the image;
Obtaining a degree of confidence in a probability that an object included in the inner region of the first bounding box coincides with the first object;
Obtaining a reference value corresponding to the first bounding box according to whether the first sub-bounding box is disposed within the first bounding box;
removing the at least one first bounding box whose reliability of the at least one first bounding box does not exceed the reference value corresponding to the at least one first bounding box;
The electronic device detects the first object through a first bounding box that is not removed from among the plurality of first bounding boxes.
상기 기준값은 제1 기준값 및 제2 기준값을 포함하고,
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 제1 서브 바운딩 박스가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제1 기준값을 획득하고,
상기 제1 서브 바운딩 박스가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제2 기준값을 획득하고,
상기 제1 기준값은 상기 제2 기준값보다 낮은, 전자 장치.According to claim 16,
The reference value includes a first reference value and a second reference value,
The at least one processor, by executing the one or more instructions,
Obtaining a first reference value corresponding to at least one first bounding box in which the first sub-bounding box is included;
Obtaining a second reference value corresponding to at least one first bounding box in which the first sub-bounding box is not included;
The first reference value is lower than the second reference value, the electronic device.
상기 복수의 제1 바운딩 박스들은, 상기 제1 객체를 특정하는 제1 클래스로 레이블링되고,
상기 제1 서브 바운딩 박스는, 상기 제2 객체를 특정하는 제2 클래스로 레이블되는, 전자 장치.According to claim 16,
The plurality of first bounding boxes are labeled with a first class specifying the first object,
The first sub-bounding box is labeled with a second class specifying the second object.
상기 제1 클래스는 사람(person) 클래스를 의미하고,
상기 제2 클래스는 얼굴(face) 클래스, 귀(ear) 클래스 및 손(hand) 클래스 중 적어도 하나를 의미하는, 전자 장치.According to claim 18,
The first class means a person class,
The second class means at least one of a face class, an ear class, and a hand class.
상기 객체는 상기 제1 객체의 일부인 제3 객체를 더 포함하고,
상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 이미지에 포함된 상기 제3 객체에 대응되는 제2 서브 바운딩 박스를 생성하고,
상기 제2 서브 바운딩 박스가 내부에 포함되는 적어도 하나의 제1 바운딩 박스에 대응되는 제3 기준값을 획득하고,
상기 제2 서브 바운딩 박스가 내부에 포함되지 않는 적어도 하나의 제1 바운딩 박스에 대응되는 제4 기준값을 획득하고,
상기 적어도 하나의 제1 바운딩 박스의 신뢰도가 상기 적어도 하나의 제1 바운딩 박스에 대응되는 상기 제3 기준값 및 상기 제4 기준값 중 하나를 넘어서지 못하는, 상기 적어도 하나의 제1 바운딩 박스를 제거하고,
상기 제3 기준값은 상기 제4 기준값보다 낮은, 전자 장치.According to claim 16,
The object further includes a third object that is part of the first object,
The at least one processor, by executing the one or more instructions,
Creating a second sub-bounding box corresponding to the third object included in the image;
obtaining a third reference value corresponding to at least one first bounding box in which the second sub-bounding box is included;
Obtaining a fourth reference value corresponding to at least one first bounding box in which the second sub-bounding box is not included;
removing the at least one first bounding box whose reliability of the at least one first bounding box does not exceed one of the third reference value and the fourth reference value corresponding to the at least one first bounding box;
The third reference value is lower than the fourth reference value, the electronic device.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210079494 | 2021-06-18 | ||
KR20210079494 | 2021-06-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220169445A true KR20220169445A (en) | 2022-12-27 |
Family
ID=84527271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220075019A KR20220169445A (en) | 2021-06-18 | 2022-06-20 | Electronic device and method for detecting an object in an image |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220169445A (en) |
WO (1) | WO2022265467A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10346723B2 (en) * | 2016-11-01 | 2019-07-09 | Snap Inc. | Neural network for object detection in images |
KR101896357B1 (en) * | 2018-02-08 | 2018-09-07 | 주식회사 라디코 | Method, device and program for detecting an object |
KR20200066130A (en) * | 2018-11-30 | 2020-06-09 | 한국전자통신연구원 | Object recognition device, operating method of object recognition device, and computing device including object recognition device |
KR102314520B1 (en) * | 2019-03-22 | 2021-10-20 | 홍익대학교 산학협력단 | Apparatus and method for detecting object |
KR20210056050A (en) * | 2019-11-08 | 2021-05-18 | 재단법인대구경북과학기술원 | Apparaus and method of identifying multi class objects |
-
2022
- 2022-06-20 WO PCT/KR2022/008691 patent/WO2022265467A1/en unknown
- 2022-06-20 KR KR1020220075019A patent/KR20220169445A/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2022265467A1 (en) | 2022-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11042728B2 (en) | Electronic apparatus for recognition of a user and operation method thereof | |
KR102453169B1 (en) | method and device for adjusting an image | |
EP3531370B1 (en) | Method for correcting image by device and device therefor | |
KR102428920B1 (en) | Image display device and operating method for the same | |
JP7007829B2 (en) | Information processing equipment, information processing methods and programs | |
US11164565B2 (en) | Unsupervised learning system and method for performing weighting for improvement in speech recognition performance and recording medium for performing the method | |
KR20200046188A (en) | An electronic device for reconstructing an artificial intelligence model and its control method | |
US11825278B2 (en) | Device and method for auto audio and video focusing | |
US20190228294A1 (en) | Method and system for processing neural network model using plurality of electronic devices | |
KR20180074565A (en) | Image display device and operating method for the same | |
US10916240B2 (en) | Mobile terminal and method of operating the same | |
WO2019013246A1 (en) | Object detection device, object detection method, and program | |
KR102521313B1 (en) | Method and apparatus training artificial neural network for identifying object in image | |
KR102469717B1 (en) | Electronic device and method for controlling the electronic device thereof | |
US20220130019A1 (en) | Electronic device and method for processing image by same | |
KR102423754B1 (en) | Device and method for providing response to question about device usage | |
US10917721B1 (en) | Device and method of performing automatic audio focusing on multiple objects | |
KR102246471B1 (en) | Apparatus for detecting nose of animal in image and method thereof | |
US11797824B2 (en) | Electronic apparatus and method for controlling thereof | |
KR20220169445A (en) | Electronic device and method for detecting an object in an image | |
KR20210089038A (en) | Electronic apparatus and method for controlling thereof | |
KR102440963B1 (en) | Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium | |
WO2023049387A1 (en) | System and method for reducing surveillance detection errors | |
US20220139113A1 (en) | Method and device for detecting object in image | |
US20210397819A1 (en) | Object recognition method and object recognition apparatus |