KR20220121105A - A method for tracking a location of an object in a tarrget area and an electronic device performing the same - Google Patents
A method for tracking a location of an object in a tarrget area and an electronic device performing the same Download PDFInfo
- Publication number
- KR20220121105A KR20220121105A KR1020210025125A KR20210025125A KR20220121105A KR 20220121105 A KR20220121105 A KR 20220121105A KR 1020210025125 A KR1020210025125 A KR 1020210025125A KR 20210025125 A KR20210025125 A KR 20210025125A KR 20220121105 A KR20220121105 A KR 20220121105A
- Authority
- KR
- South Korea
- Prior art keywords
- object image
- image
- images
- image set
- electronic device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000013507 mapping Methods 0.000 claims description 21
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Radar Systems Or Details Thereof (AREA)
- Crystals, And After-Treatments Of Crystals (AREA)
- Image Analysis (AREA)
Abstract
Description
본 문서에서 개시되는 실시 예들은 타겟 영역 내의 객체의 위치를 추적하는 방법 및 이를 수행하는 전자 장치에 관한 것이다.Embodiments disclosed in this document relate to a method of tracking a position of an object in a target area and an electronic device for performing the same.
영상 인식 기술의 발달에 따라, 카메라 등을 이용하여 획득한 이미지 데이터들로부터 특정 객체를 인식하고, 사용자에게 상기 인식된 객체와 관련된 다양한 정보를 제공해주는 발명들이 등장하고 있다. 예를 들면, 전자 장치는 카메라를 이용하여 바코드 또는 QR 코드를 인식하고 인식된 코드에 저장된 정보를 사용자에게 제공할 수 있다. 다른 예를 들면, 증강 현실을 제공하기 위한 전자 장치는 사용자가 바라보는 방향에 존재하는 객체를 인식하고, 인식된 객체와 관련된 정보를 증강 현실 화면으로 사용자에게 제공할 수도 있다.With the development of image recognition technology, inventions for recognizing a specific object from image data acquired using a camera or the like and providing various information related to the recognized object to a user are emerging. For example, the electronic device may recognize a barcode or QR code using a camera and provide information stored in the recognized code to the user. As another example, the electronic device for providing augmented reality may recognize an object existing in a direction in which the user looks, and provide information related to the recognized object to the user as an augmented reality screen.
움직이지 않거나, 움직임의 정도가 비교적 작은 객체를 인식하는 것과는 달리, 지정된 수준 이상의 속도로 움직이는 객체를 인식하고, 객체의 위치를 추적하는 것은, 추가적인 전자 장치, 예컨대, 상기 움직이는 객체에 부착된 센서 등을 이용하지 않는 이상 기술적인 어려움이 있다. 또한, 복수의 객체들에 서로 구별되는 센서를 부착하는 경우에는 상기 어려움을 해결할 수도 있지만, 추가적인 비용이 발생하고, 인식하는 대상이 센서를 부착한 객체에 제한된다는 문제가 발생할 수 있다. Unlike recognizing an object that does not move or has a relatively small degree of motion, recognizing an object moving at a speed greater than or equal to a specified level and tracking the position of the object may include an additional electronic device, such as a sensor attached to the moving object, etc. There are technical difficulties unless you use . In addition, although the above difficulties may be solved in the case of attaching a sensor that is distinguished from each other to a plurality of objects, an additional cost may occur, and a problem that a recognized object is limited to an object to which the sensor is attached may occur.
또한, 센서와 같은 추가적인 전자 장치 없이 카메라를 이용한 영상 인식 기술을 통해 객체를 인식하려는 경우에, 단일의 객체가 아니라, 복수의 객체가 서로 겹쳐지고 다시 떨어지는 과정이 반복된다면 인식된 객체의 동일성을 유지하는 것이 매우 곤란할 수 있다. 예를 들어, 카메라를 이용하여 복수의 움직이는 객체를 인식하는 경우, 카메라의 화면 상에서 복수의 객체들이 겹쳐지는 순간에는 전자 장치가 복수의 객체들을 단일의 객체로 인식하게 될 수도 있고, 복수의 객체들이 겹쳐진 이후에 다시 분리되는 순간에는 인식하고 있던 객체의 식별 번호가 서로 뒤바뀌는 문제가 발생할 수도 있다.In addition, in the case of recognizing an object through image recognition technology using a camera without an additional electronic device such as a sensor, the identity of the recognized object is maintained if the process of overlapping and falling again is repeated instead of a single object. It can be very difficult to do. For example, when recognizing a plurality of moving objects using a camera, the electronic device may recognize the plurality of objects as a single object when the plurality of objects overlap on the screen of the camera, and the plurality of objects At the moment of separation again after overlapping, there may be a problem that the identification numbers of recognized objects are reversed.
본 문서에 개시되는 일 실시 예에 따른 방법은, 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하는 단계, 상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하는 단계, 상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 단계, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하는 단계, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하는 단계 및 상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하는 단계를 포함하는 것을 특징으로 할 수 있다.The method according to an embodiment disclosed in this document includes using a plurality of cameras to acquire a plurality of image data photographed at different positions with respect to the target area, from the plurality of image data, the target Recognizing object images corresponding to one or more objects included in an area, selecting object images determined to correspond to the same object from among the recognized object images as a first object image set, the first object image Setting an object to which a set corresponds to a first object, determining a position of the first object based on positions of object images included in the first object image set, and included in the first object image set and storing the object images and time information related to the object images.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 서로 상이한 위치에서 상기 타겟 영역을 촬영하기 위한 복수의 카메라들 및 상기 복수의 카메라들 각각과 전기적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 상기 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하고, 상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하고, 상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하고, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하고, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하고, 및 상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하도록 설정되는 것을 특징으로 할 수 있다.In addition, the electronic device according to an embodiment disclosed in this document includes a plurality of cameras for photographing the target area at different positions and a processor electrically connected to each of the plurality of cameras, the processor obtains a plurality of image data photographed at different positions with respect to the target area by using the plurality of cameras, and in the plurality of image data, an object corresponding to one or more objects included in the target area Recognizing images, selecting object images determined to correspond to the same object among the recognized object images as a first object image set, and setting an object to which the first object image set corresponds to a first object, Determine the position of the first object based on the positions of the object images included in the first object image set, and time information related to the object images and the object images included in the first object image set It may be characterized in that it is set to store.
본 문서에 개시되는 실시 예들에 따르면, 센서 등의 추가적인 전자 장치를 이용하지 않고 영상 인식 기술만을 이용하여 타겟 영역 내의 객체의 위치를 추적할 수 있다. 또한, 복수의 객체들이 서로 겹쳐지고 분리되는 과정에서도 인식하는 객체의 동일성을 정확하게 유지할 수 있으며, 인식된 객체들의 위치를 보다 정확하게 추적할 수 있다.According to the embodiments disclosed in this document, the position of the object in the target area may be tracked using only image recognition technology without using an additional electronic device such as a sensor. In addition, even in a process in which a plurality of objects are overlapped and separated from each other, the identity of the recognized objects may be accurately maintained, and the positions of the recognized objects may be more accurately tracked.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition, various effects directly or indirectly identified through this document may be provided.
도 1a는 일 실시 예에 따른, 전자 장치가 복수의 카메라들을 이용하여 타겟 영역의 객체들의 위치를 추적하는 방법을 나타낸다.
도 1b는 일 실시 예에 따른, 전자 장치가 복수의 카메라들을 이용하여 획득한 복수의 이미지 데이터들로부터 객체 이미지들을 획득하고, 객체 이미지들을 그룹화하는 과정을 나타낸다.
도 2는 일 실시 예에 따른, 전자 장치가 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법을 나타내는 흐름도이다.
도 3은 일 실시 예에 따른, 전자 장치가 복수의 이미지 데이터들에서 인식된 객체 이미지들을 제1 객체에 대응하는 제1 객체 이미지 세트로 그룹화하는 방법을 나타내는 흐름도이다.
도 4는 다양한 실시 예에 따른, 전자 장치가 복수의 객체 이미지들을 그룹화하는 방법을 나타낸다.
도 5는 일 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체 이미지들을 각각의 객체에 대응하는 객체 이미지 세트로 그룹화하는 방법을 나타낸다.
도 6은 다른 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체 이미지들을 각각의 객체에 대응하는 객체 이미지 세트로 그룹화하는 방법을 나타낸다.
도 7a는 일 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체의 식별 번호를 결정하는 방법을 나타낸다.
도 7b는 다른 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체의 식별 번호를 결정하는 방법을 나타낸다.
도 8은 일 실시 예에 따른, 전자 장치가 복수의 카메라들 각각 및 인식된 객체 사이의 거리에 기초하여 인식된 객체의 위치를 결정하는 방법을 나타낸다.
도 9는 일 실시 예에 따른, 전자 장치의 블록도를 나타낸다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.1A illustrates a method for an electronic device to track positions of objects in a target area using a plurality of cameras, according to an exemplary embodiment.
FIG. 1B illustrates a process in which an electronic device acquires object images from a plurality of image data acquired using a plurality of cameras and groups the object images, according to an exemplary embodiment.
2 is a flowchart illustrating a method for an electronic device to track a location of an arbitrary object included in a target area, according to an embodiment.
3 is a flowchart illustrating a method for an electronic device to group object images recognized from a plurality of image data into a first object image set corresponding to a first object, according to an exemplary embodiment.
4 illustrates a method for an electronic device to group a plurality of object images, according to various embodiments of the present disclosure.
5 illustrates a method of grouping, by an electronic device, object images into an object image set corresponding to each object in a process in which a plurality of objects are overlapped and separated, according to an embodiment.
6 is a diagram illustrating a method in which an electronic device groups object images into an object image set corresponding to each object while a plurality of objects are overlapped and separated, according to another exemplary embodiment.
7A illustrates a method for an electronic device to determine an identification number of an object in a process in which a plurality of objects are overlapped and separated, according to an embodiment.
7B illustrates a method of determining, by an electronic device, an identification number of an object while overlapping and separating a plurality of objects, according to another exemplary embodiment.
8 illustrates a method for an electronic device to determine a position of a recognized object based on a distance between each of a plurality of cameras and the recognized object, according to an embodiment.
9 is a block diagram of an electronic device, according to an embodiment.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.
도 1a는 일 실시 예에 따른, 전자 장치가 복수의 카메라들을 이용하여 타겟 영역의 객체들의 위치를 추적하는 방법을 나타낸다.1A illustrates a method for an electronic device to track positions of objects in a target area using a plurality of cameras, according to an exemplary embodiment.
도 1a를 참조하면, 전자 장치(미도시)는 복수의 카메라들(111, 112, 113)을 이용하여 타겟 영역(10)에 대하여 서로 상이한 위치에서 촬영을 할 수 있고, 복수의 이미지 데이터들을 획득할 수 있다. 예를 들어, 제1 카메라(111)는 타겟 영역(10)을 제1 위치에서 촬영함으로써 이미지 데이터를 획득하고, 제2 카메라(112)는 타겟 영역(10)을 제2 위치에서 촬영함으로써 이미지 데이터를 획득하고, 제3 카메라(113)는 타겟 영역(10)을 제3 위치에서 촬영함으로써 이미지 데이터를 획득할 수 있다. 다양한 실시 예에서, 타겟 영역(10)은 객체를 인식하기 위한 관심 영역으로 이해될 수 있다. 예를 들어, 타겟 영역(10)은 야구장의 그라운드(ground), 농구장의 농구 코트(court), 축구장의 피치(pitch) 등을 의미하는 것으로 이해될 수 있다.Referring to FIG. 1A , an electronic device (not shown) may photograph a
일 실시 예에서, 타겟 영역(10)이 도 1a에 도시된 것처럼 야구장의 그라운드인 경우, 제1 카메라(111)는 3루 베이스 쪽에서 그라운드를 촬영할 수 있고, 제2 카메라(112)는 1루 베이스 쪽에서 그라운드를 촬영할 수 있고, 제3 카메라(113)는 홈 베이스 쪽에서 그라운드를 촬영할 수 있다. 다른 실시 예에서, 타겟 영역(10)이 농구장의 농구 코트 또는 축구장의 피치인 경우, 제1 카메라(111)는 제1 골대 쪽에서 촬영할 수 있고, 제2 카메라(112)는 제2 골대 쪽에서 촬영할 수 있고, 제3 카메라(113)는 제1 골대 및 제2 골대 사이의 중앙선 부근에서 촬영할 수 있다. 다양한 실시 예에서, 복수의 카메라(111, 112, 113)의 개수 또는 위치는 도 1a에 도시된 바에 한정되지 않으며, 타겟 영역(10)의 속성, 타겟 영역(10)에 포함되는 복수의 객체들의 속성 등에 기초하여 다양하게 결정될 수 있다.In one embodiment, when the
일 실시 예에 따르면, 복수의 카메라들(111, 112, 113) 각각의 위치는 복수의 카메라들(111, 112, 113)이 타겟 영역(10)의 중심을 기준으로 이루는 각도가 지정된 각도 이상이 되도록 결정될 수 있다. 예를 들면, 제1 카메라(111), 타겟 영역(10)의 중심, 및 제2 카메라(112)가 이루는 각도는 상기 지정된 각도 이상일 수 있다. 다른 예를 들면, 제2 카메라(112), 타겟 영역(10)의 중심, 및 제3 카메라(113)가 이루는 각도는 상기 지정된 각도 이상일 수 있다. 다양한 실시 예에서, 복수의 카메라들(111, 112, 113)의 위치가 복수의 카메라들(111, 112, 113)이 타겟 영역(10)의 중심을 기준으로 이루는 각도가 지정된 각도 이상이 되도록 결정되면, 전자 장치는 타겟 영역(10)에 포함되는 복수의 객체들을 보다 정확하게 인식할 수 있다. 예를 들어, 제1 카메라(111)를 이용하여 획득한 제1 이미지 데이터에서 제1 객체 및 제2 객체는 서로 겹쳐 있는 것으로 보일 수 있지만, 타겟 영역(10)의 중심을 기준으로 제1 카메라(111)와 지정된 각도 이상의 각도를 이루는 제2 카메라(112)에서 획득한 제2 이미지 데이터 또는 제3 카메라(113)에서 획득한 제3 이미지 데이터에서 제1 객체 및 제2 객체는 서로 겹쳐 있지 않은 것으로 보일 수 있다. 전자 장치는 제1 카메라(111), 제2 카메라(112), 및 제3 카메라(113)를 이용하여 적어도 하나의 이미지 데이터에서 겹쳐 있지 않은 제1 객체 및 제2 객체를 모두 인식할 수 있다.According to an embodiment, the position of each of the plurality of
일 실시 예에 따르면, 복수의 카메라들(111, 112, 113)을 이용하여 촬영된 복수의 이미지 데이터들은 각각 프로세서(120)로 전달될 수 있고, 프로세서(120)는 상기 복수의 이미지 데이터들을 처리함으로써, 타겟 영역(10)에 포함되는 복수의 객체들의 위치를 나타내는 이미지(40)를 획득할 수 있다. 이미지(40)에 포함되는 객체들을 복수의 이미지 데이터들로부터 인식된 객체 이미지들에 기초하여 이미지(40) 상에 표시될 수 있다. 다양한 실시 예에서, 객체 이미지는 실제 객체에 대응하는 이미지로써, 이미지 데이터에서 인식되는 객체에 대한 이미지로 이해될 수 있다.According to an embodiment, a plurality of image data photographed using the plurality of
일 실시 예에서, 각각의 이미지 데이터들에서 인식되는 객체 이미지들 중 동일한 객체에 대응하는 것으로 판단되는 객체 이미지들은 서로 그룹화(또는 클러스터링(clustering))됨으로써, 이미지(40) 상의 하나의 객체로 표시될 수 있다. 예컨대, 제1 카메라(111)로부터 획득된 제1 이미지 데이터에서 인식된 제1 객체 이미지, 제2 카메라(112)로부터 획득된 제2 이미지 데이터에서 인식된 제2 객체 이미지, 및 제3 카메라(113)로부터 획득된 제3 이미지 데이터에서 인식된 제3 객체 이미지는 모두 동일한 객체에 대응하는 것으로 판단될 수 있고, 서로 그룹화 됨으로써 이미지 상에서 제1 객체로 표시될 수 있다.In one embodiment, the object images determined to correspond to the same object among the object images recognized in the respective image data are grouped (or clustered) with each other to be displayed as one object on the
도 1b는 일 실시 예에 따른, 전자 장치가 복수의 카메라들을 이용하여 획득한 복수의 이미지 데이터들로부터 객체 이미지들을 획득하고, 객체 이미지들을 그룹화하는 과정을 나타낸다.FIG. 1B illustrates a process in which an electronic device acquires object images from a plurality of image data acquired using a plurality of cameras and groups the object images, according to an exemplary embodiment.
도 1b를 참조하면, 제1 이미지 데이터(11), 제2 이미지 데이터(12), 및 제3 이미지 데이터(13)는 각각 도 1a에 도시된 제1 카메라(111), 제2 카메라(112), 및 제3 카메라(113)로부터 획득된 이미지 데이터일 수 있다. 일 실시 예에 따르면, 전자 장치는 복수의 이미지 데이터들(11, 12, 13) 각각에서, 타겟 영역에 포함되는 객체에 대응하는 객체 이미지들을 인식할 수 있다. 예를 들면, 전자 장치는 제1 이미지 데이터(11), 제2 이미지 데이터(12), 및 제3 이미지 데이터(13) 각각에서, 객체, 예컨대, 심판 및 선수에 대응하는 객체 이미지를 인식할 수 있다. Referring to FIG. 1B , the
일 실시 예에 따르면, 복수의 이미지 데이터들(11, 12, 13)은 각각 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑될 수 있다. 예를 들어, 상기 단일 좌표계는 2차원 평면에 대한 단일 좌표계 또는 3차원 공간에 대한 단일 좌표계일 수 있다. 본 문서에서는 설명의 편의상 상기 복수의 이미지 데이터들(11, 12, 13)은 2차원 평면에 대한 단일 좌표계 상에 매핑되는 것으로 설명될 수 있으나, 이에 한정되는 것은 아니며, 3차원 공간에 대한 단일 좌표계 상에 매핑될 수도 있다. 일 실시 예에서, 타겟 영역에 대한 상기 단일 좌표계는 단일 평면일 수 있고, 상기 단일 평면은 도 1b에 도시된 매핑 이미지들(21, 22, 23)과 같이, 타겟 영역을 상공에서 바라본 평면에 대응할 수 있다. 다양한 실시 예에서, 상기 단일 평면은 도 1b에 도시된 바에 한정되지 않고, 다양한 각도에서 타겟 영역을 바라본 평면들 중 하나일 수도 있다. 일 실시 예에서, 제1 이미지 데이터(11)는 단일 평면 상의 제1 매핑 이미지(21)에 매핑될 수 있으며, 제2 이미지 데이터(12)는 단일 평면 상의 제2 매핑 이미지(22)에 매핑될 수 있으며, 제3 이미지 데이터(13)는 단일 평면 상의 제3 매핑 이미지(23)에 매핑될 수 있다.According to an embodiment, each of the plurality of
다양한 실시 예에서, 전자 장치가 복수의 이미지 데이터들(11, 12, 13) 각각을 단일 평면 상의 매핑 이미지에 매핑하면, 서로 상이한 이미지 데이터에서 인식된 객체 이미지들을 하나의 평면 상에 표시할 수 있다. 예를 들면, 제1 매핑 이미지(21), 제2 매핑 이미지(22), 및 제3 매핑 이미지(23)는 동일한 평면을 나타내는 이미지들이므로, 전자 장치는 제1 매핑 이미지(21)에 포함되는 객체 이미지, 제2 매핑 이미지(22)에 포함되는 객체 이미지, 및 제3 매핑 이미지(23)에 포함되는 객체 이미지 모두를 단일의 결합 매핑 이미지(30)에 표시할 수 있다.In various embodiments, if the electronic device maps each of the plurality of
일 실시 예에 따르면, 전자 장치는 결합 매핑 이미지(30) 상에서 동일한 객체에 대응하는 것으로 판단되는 객체 이미지들을 선택하고, 상기 선택된 객체 이미지들을 객체 이미지 세트로 그룹화할 수 있다. 예를 들면, 전자 장치는 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작고 서로 상이한 이미지 데이터로부터 인식된 객체 이미지들을 동일한 객체에 대응하는 객체 이미지들로 판단하고, 상기 동일한 객체에 대응하는 것으로 판단된 객체 이미지들을 선택함으로써 객체 이미지 세트로 그룹화할 수 있다.According to an embodiment, the electronic device may select object images determined to correspond to the same object on the
일 실시 예에 따르면, 전자 장치는 제1 이미지 데이터(11)로부터 인식되고 결합 매핑 이미지(30)에 표시된 제1 객체 이미지, 제2 이미지 데이터(12)로부터 인식되고 결합 매핑 이미지(30)에 표시된 제2 객체 이미지, 및 제3 이미지 데이터(13)로부터 인식되고 결합 매핑 이미지(30)에 표시된 제3 객체 이미지가 상호 간에 지정된 임계 값 보다 작은 거리만큼 떨어져 있다면, 상기 제1 객체 이미지, 상기 제2 객체 이미지, 및 상기 제3 객체 이미지를 동일한 객체에 대응하는 객체 이미지들로 판단할 수 있다. 전자 장치는 상기 제1 객체 이미지, 상기 제2 객체 이미지, 상기 제3 객체 이미지를 제1 객체 이미지 세트로 그룹화할 수 있고, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정할 수 있다. 일 실시 예에서, 전자 장치는 결합 매핑 이미지(30) 상에서 복수의 객체 이미지들을 객체 이미지 세트로 그룹화하고, 상기 객체 이미지 세트에 대응하는 객체의 위치를 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 결정할 수 있으며, 도 1a에 도시된 이미지(40)상에 표시할 수 있다.According to an embodiment, the electronic device recognizes a first object image recognized from the
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트에 포함되는 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장할 수 있다. 상기 객체 이미지들과 관련된 시간 정보는 예컨대, 객체 이미지들이 인식된 또는 획득된 시간에 대한 정보일 수 있다. 다양한 실시 예에 따르면, 전자 장치는 지정된 시간 간격에 따라 또는 사용자 입력 등의 이벤트 발생에 따라 이미지 데이터들을 획득하고 획득된 이미지 데이터들로부터 객체 이미지들을 인식할 수 있다. 전자 장치는 객체 이미지 및 객체 이미지와 관련된 시간 정보를 저장함으로써, 특정 시각에서의 제1 객체 이미지 세트의 구성을 획득할 수 있다. According to an embodiment, the electronic device may store object images included in an object image set and time information related to the object images. The time information related to the object images may be, for example, information about a time at which the object images were recognized or acquired. According to various embodiments of the present disclosure, the electronic device may acquire image data according to a specified time interval or occurrence of an event, such as a user input, and recognize object images from the acquired image data. The electronic device may acquire the configuration of the first object image set at a specific time by storing the object image and time information related to the object image.
일 실시 예에 따르면, 전자 장치는 지정된 시간 간격에 따라 또는 사용자 입력 등의 이벤트 발생에 따라 획득한 객체 이미지들에 기초하여, 객체 이미지 세트의 구성, 즉, 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트할 수 있다. 다양한 실시 예에서, 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트하는 것은 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 것과 동일 또는 유사하게 이해될 수 있다. 일 실시 예에 따르면, 전자 장치는 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트 함으로써 객체 이미지 세트에 대응하는 객체의 위치를 추적할 수 있다. 예를 들어, 전자 장치는 각각의 객체에 대응하는 객체 이미지 세트 및 상기 객체 이미지 세트에 포함되는 객체 이미지들을 지정된 시간 간격으로 업데이트할 수 있다. 예컨대, 전자 장치는 제1 객체에 대응하는 제1 객체 이미지 세트에 포함되는 제1 객체 이미지, 제2 객체 이미지, 및 제3 객체 이미지를 지정된 시간 간격으로 인식함으로써, 상기 제1 객체 이미지의 위치, 상기 제2 객체 이미지의 위치, 및 상기 제3 객체 이미지의 위치를 업데이트할 수 있다. 상기 지정된 시간 간격에 따라 인식된 상기 제1 객체 이미지, 상기 제2 객체 이미지, 및 상기 제3 객체 이미지의 위치가 변경됨에 따라, 전자 장치는 상기 제1 객체의 위치를 변경시킬 수 있고, 추적할 수 있다.According to an embodiment, the electronic device updates the configuration of the object image set, that is, the object images included in the object image set, based on the object images acquired according to a specified time interval or according to the occurrence of an event such as a user input. can do. In various embodiments, updating the object images included in the object image set may be understood to be the same or similar to changing the configuration of the object images included in the object image set. According to an embodiment, the electronic device may track the position of the object corresponding to the object image set by updating the object images included in the object image set. For example, the electronic device may update an object image set corresponding to each object and object images included in the object image set at a specified time interval. For example, the electronic device recognizes the first object image, the second object image, and the third object image included in the first object image set corresponding to the first object at a specified time interval to determine the position of the first object image, A position of the second object image and a position of the third object image may be updated. As the positions of the recognized first object image, the second object image, and the third object image are changed according to the specified time interval, the electronic device may change the position of the first object, and can
일 실시 예에 따르면, 전자 장치는 복수의 이미지 데이터들(11, 12, 13)로부터 인식된 객체 이미지들에 대하여 각각의 식별 번호를 부여할 수 있다. 전자 장치는 상기 식별 번호에 기초하여 객체 이미지들을 구분할 수 있다. 일 실시 예에서, 식별 번호는 대응하는 객체 이미지에 대응하는 카메라 종류에 대한 정보를 포함할 수도 있다. 이를 통해, 전자 장치는 객체 이미지의 식별 번호에 기초하여, 객체 이미지가 어떤 카메라에 대응하는지를 결정할 수 있다. According to an embodiment, the electronic device may assign an identification number to each of the object images recognized from the plurality of
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대응하는 식별 번호들에 기초하여, 객체 이미지 세트에 대응하는 식별 번호 세트를 획득할 수도 있다. 상기 식별 번호 세트는 상기 객체 이미지 세트에 대응하는 객체에 대응할 수 있다. 일 실시 예에 따르면, 전자 장치는 상기 식별 번호 세트에 포함되는 식별 번호들을 저장할 수 있고, 상기 식별 번호들과 함께 식별 번호들에 대응하는 객체 이미지들과 관련된 시간 정보를 함께 저장할 수 있다. 일 실시 예에서, 상기 식별 번호 세트는 객체 이미지 세트에 포함되는 객체 이미지가 업데이트 됨에 기초하여 업데이트될 수 있다. 예를 들어, 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 어느 하나가 제외되는 경우, 제1 객체 이미지 세트에 대응하는 제1 식별 번호 세트는 상기 제외된 객체 이미지에 대응하는 식별 번호를 제외하도록 업데이트될 수 있다.According to an embodiment, the electronic device may obtain an identification number set corresponding to the object image set based on identification numbers corresponding to each of the object images included in the object image set. The set of identification numbers may correspond to an object corresponding to the set of object images. According to an embodiment, the electronic device may store identification numbers included in the identification number set, and store time information related to object images corresponding to the identification numbers together with the identification numbers. In an embodiment, the identification number set may be updated based on an object image included in the object image set being updated. For example, when any one of the object images included in the first object image set is excluded, the first identification number set corresponding to the first object image set excludes the identification number corresponding to the excluded object image set may be updated.
이하, 다양한 실시 예에 따른, 전자 장치에서 복수의 카메라들을 이용하여 타겟 영역에 포함되는 객체의 위치를 추적하는 방법 및 상기 전자 장치에 대해 구체적으로 설명하도록 한다.Hereinafter, a method for tracking a position of an object included in a target area using a plurality of cameras in an electronic device and an electronic device according to various embodiments will be described in detail.
도 2는 일 실시 예에 따른, 전자 장치가 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a method for an electronic device to track a location of an arbitrary object included in a target area, according to an embodiment.
도 2를 참조하면, 전자 장치가 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법(200)은 단계 201 내지 211을 포함할 수 있다. 다양한 실시 예에 따르면, 단계 201 내지 211은 도 9에 도시된 전자 장치(900) 또는 프로세서(920)(또는 도 1a의 프로세서(120))에 의해 수행되는 것으로 이해할 수 있다. 다양한 실시 예에서, 전자 장치가 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법(200)은 도 2에 도시된 바에 한정되지 않으며, 도 2에 도시된 단계 중 하나 이상의 단계를 생략하거나, 도 2에 도시되지 않은 하나 이상의 단계를 더 포함할 수도 있다.Referring to FIG. 2 , the
단계 201에서, 전자 장치는 복수의 카메라들을 이용하여, 복수의 이미지 데이터들을 획득할 수 있다. 상기 복수의 이미지 데이터들은 타겟 영역에 대한 이미지 데이터일 수 있으며, 복수의 카메라들은 타겟 영역에 대한 서로 상이한 위치에서 타겟 영역을 촬영할 수 있다.In
단계 203에서, 전자 장치는 상기 단계 201에서 획득한 복수의 이미지 데이터들에서, 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식할 수 있다. 예를 들면, 전자 장치는 제1 카메라를 이용하여 획득한 제1 이미지 데이터에서, 제1 선수에 대응하는 제1 객체 이미지를 인식할 수 있다. 다른 예를 들면, 전자 장치는 제2 카메라를 이용하여 획득한 제2 이미지 데이터에서, 상기 제1 선수에 대응하는 제2 객체 이미지를 인식할 수 있고, 제3 카메라를 이용하여 획득한 제3 이미지 데이터에서 상기 제1 선수에 대응하는 제3 객체 이미지를 인식할 수 있다. 다양한 실시 예에서, 전자 장치는 상기 복수의 이미지 데이터에서 상기 제1 선수와 상이한 제2 선수 또는 제1 심판에 대응하는 객체 이미지들을 인식할 수도 있다.In
단계 205에서, 전자 장치는 상기 단계 203에서 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택할 수 있다. 예를 들면, 전자 장치는 상기 인식된 객체 이미지들 중 단일 좌표계, 예컨대, 단일 평면에 대한 좌표계 상에서 지정된 임계 값 보다 작은 거리만큼 떨어지고, 서로 상이한 이미지 데이터로부터 인식된 객체 이미지들을 동일한 객체에 대응하는 객체 이미지들로 선택할 수 있고, 상기 선택한 객체 이미지들을 제1 객체 이미지 세트로 그룹화할 수 있다.In
단계 207에서, 전자 장치는 상기 단계 205에서 그룹화된 제1 객체 이미지 세트에 대응하는 객체를 제1 객체로 설정할 수 있다. 예를 들어, 전자 장치는 상기 단계 203에서 설명된 상기 제1 선수에 대응하는 상기 제1 객체 이미지, 상기 제2 객체 이미지, 및 상기 제3 객체 이미지가 모두 동일한 객체에 대응한다는 사실을 비로소 인식하고, 상기 동일한 객체를 제1 객체로 설정함으로써 상기 제1 선수를 상기 제1 객체로서 인식할 수 있다.In
단계 209에서, 전자 장치는 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 제1 객체의 위치를 결정할 수 있다. 예를 들어, 제1 객체 이미지 세트는 제1 객체 이미지, 제2 객체 이미지, 및 제3 객체 이미지를 포함할 수 있고, 전자 장치는 각각의 객체 이미지의 위치 및 각각의 객체 이미지에 대한 가중치에 기초하여 제1 객체의 위치를 결정할 수 있다.In
단계 211에서, 전자 장치는 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장할 수 있다. 상기 객체 이미지들과 관련된 시간 정보는 예컨대, 객체 이미지들이 인식된 또는 획득된 시간에 대한 정보일 수 있다. 전자 장치는 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 객체 이미지들과 관련된 시간 정보를 저장함으로써, 특정 시각에서의 제1 객체 이미지 세트의 구성을 획득할 수 있다. 전자 장치는 상기 시간 정보에 기초하여, 특정 시각에서의 제1 객체 이미지 세트 및 특정 시각에서의 제1 객체의 위치를 획득할 수 있다.In
일 실시 예에 따르면, 전자 장치는 지정된 시간 간격에 따라 또는 사용자 입력 등의 이벤트 발생에 따라 획득한 객체 이미지들에 기초하여, 객체 이미지 세트의 구성, 즉, 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트할 수도 있다. 다양한 실시 예에서, 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트하는 것은 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 것과 동일 또는 유사하게 이해될 수 있다. 전자 장치는 제1 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트함으로써, 제1 객체의 위치를 추적할 수 있다. 예를 들어, 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각의 위치는, 제1 객체의 위치가 변경됨에 따라, 변경될 수 있다. 전자 장치는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각의 변경되는 위치에 기초하여, 제1 객체의 변경되는 위치를 추적할 수 있다. 다른 예를 들어, 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성 중 적어도 일부는 변경될 수 있다. 예컨대, 적어도 일부의 객체 이미지는 제1 객체 이미지 세트에서 제외될 수도 있고, 새로운 객체 이미지가 제1 객체 이미지 세트에 포함될 수도 있다. 전자 장치는 상기 제1 객체 이미지 세트의 구성 변경에 기초하여, 제1 객체의 위치를 추적할 수 있다. 이와 관련된 내용은 도 5 내지 8을 통해 보다 상세하게 설명된다. According to an embodiment, the electronic device updates the configuration of the object image set, that is, the object images included in the object image set, based on the object images acquired according to a specified time interval or according to the occurrence of an event such as a user input. You may. In various embodiments, updating the object images included in the object image set may be understood to be the same or similar to changing the configuration of the object images included in the object image set. The electronic device may track the location of the first object by updating object images included in the first object image set. For example, a position of each of the object images included in the first object image set may be changed as the position of the first object is changed. The electronic device may track the changed position of the first object based on the changed position of each of the object images included in the first object image set. For another example, at least some of the configuration of object images included in the first object image set may be changed. For example, at least some object images may be excluded from the first object image set, and a new object image may be included in the first object image set. The electronic device may track the location of the first object based on a change in the configuration of the first object image set. The related contents will be described in more detail with reference to FIGS. 5 to 8 .
도 3은 일 실시 예에 따른, 전자 장치가 복수의 이미지 데이터들에서 인식된 객체 이미지들을 제1 객체에 대응하는 제1 객체 이미지 세트로 그룹화하는 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a method for an electronic device to group object images recognized from a plurality of image data into a first object image set corresponding to a first object, according to an exemplary embodiment.
도 3을 참조하면, 전자 장치가 복수의 이미지 데이터들에서 인식된 객체 이미지들을 제1 객체에 대응하는 제1 객체 이미지 세트로 그룹화하는 방법(300)은 단계 301 내지 309를 포함할 수 있다. 다양한 실시 예에 따르면, 단계 301 내지 309는 도 9에 도시된 전자 장치(900) 또는 프로세서(920)(또는 도 1a의 프로세서(120))에 의해 수행되는 것으로 이해할 수 있다. 다양한 실시 예에서, 전자 장치가 복수의 이미지 데이터들에서 인식된 객체 이미지들을 제1 객체에 대응하는 제1 객체 이미지 세트로 그룹화하는 방법(300)은 도 3에 도시된 바에 한정되지 않으며, 도 3에 도시된 단계 중 하나 이상의 단계를 생략하거나, 도 3에 도시되지 않은 하나 이상의 단계를 더 포함할 수도 있다.Referring to FIG. 3 , a
단계 301에서, 전자 장치는 복수의 카메라들 각각을 이용하여 획득된 복수의 이미지 데이터들에서 인식된 객체 이미지들을 타겟 영역에 대한 단일 좌표계, 예컨대, 단일 평면에 대한 좌표계 상에 매핑할 수 있다. 상기 복수의 이미지 데이터들은 타겟 영역에 대한 서로 다른 방향으로부터 촬영됨으로써 획득된 것이므로, 각각의 복수의 이미지 데이터들에서 인식된 객체 이미지들은 서로 상이한 좌표 평면 상에 표시된 상태일 수 있다. 전자 장치는 영상 처리 기술, 예컨대, 이미지 워핑(warping) 기술을 이용하여, 복수의 이미지 데이터 각각에서 인식된 객체 이미지들을 단일의 좌표 평면을 가지는 동일한 평면 상에 매핑할 수 있다.In
단계 303에서, 전자 장치는 단계 301에서 단일 평면 상에 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들을 선택할 수 있다. 예를 들면, 전자 장치는 임의의 제1 객체 이미지를 기준으로 상기 지정된 임계 값의 거리 내에 위치하는 객체 이미지들을 제1 객체 이미지와 함께 선택할 수 있고, 상기 선택된 객체 이미지들 중 각각의 객체 이미지를 기준으로 상기 지정된 임계 값의 거리 보다 더 멀리 떨어진 객체 이미지들을 제외하는 과정을 통해, 상호 간의 거리가 상기 지정된 임계 값 보다 작은 객체 이미지들을 선택할 수 있다.In
단계 305에서, 전자 장치는 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서 서로 상이한 카메라로부터 인식된 객체 이미지들을 선택할 수 있다. 예를 들면, 단계 303을 통해 제1 카메라로부터 인식된 제1 객체 이미지, 제2 카메라로부터 인식된 제2 객체 이미지, 제3 카메라로부터 인식된 제3 객체 이미지, 및 제1 카메라로부터 인식된 제4 객체 이미지가 선택된 경우, 전자 장치는 동일한 제1 카메라로부터 인식된 상기 제1 객체 이미지 및 상기 제4 객체 이미지를 제외한 상기 제2 객체 이미지 및 상기 제3 객체 이미지를 선택할 수 있다.In
다양한 실시 예에서, 상기 단계 303 및 상기 단계 305는 반드시 단계 303이 수행된 이후에 단계 305가 수행되는 것으로 한정되는 것은 아니며, 동시에 수행되는 단계들로 이해될 수도 있다. 예를 들면, 전자 장치는 동시에 이루어지는 단일의 단계를 통해, 서로 상이한 카메라들로부터 인식된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값보다 작은 객체 이미지들을 선택할 수도 있다.In various embodiments, the
단계 307에서, 전자 장치는 상기 단계 303 내지 305를 통해 선택된 객체 이미지들을 제1 객체 이미지 세트로 설정할 수 있다. 일 실시 예에서, 전자 장치는 상기 단계 303 내지 305를 통해 선택된 객체 이미지들이 모두 동일한 객체에 대응하는 객체 이미지인 것으로 결정할 수 있고, 상기 객체 이미지들을 그룹화 함으로써 제1 객체 이미지 세트로 설정할 수 있다.In
단계 309에서, 전자 장치는 상기 단계 307에서 제1 객체 이미지 세트로 설정된 객체 이미지들이 동일하게 대응하는 객체를 제1 객체로서 설정할 수 있다. 이를 통해, 전자 장치는 제1 객체 이미지 세트에 대응하는 객체를 제1 객체로서 특정할 수 있다.In
도 4는 다양한 실시 예에 따른, 전자 장치가 복수의 객체 이미지들을 그룹화하는 방법을 나타낸다.4 illustrates a method for an electronic device to group a plurality of object images, according to various embodiments of the present disclosure.
도 4를 참조하면, 전자 장치가 복수의 객체 이미지들을 그룹화하는 다양한 실시 예가 도시된다. 도 4의 (a), (b), (c), 및 (d)는 서로 별개의 독립적인 실시 예로 이해될 수 있다.Referring to FIG. 4 , various embodiments in which an electronic device groups a plurality of object images are illustrated. 4 (a), (b), (c), and (d) may be understood as separate and independent examples.
도 4의 (a)를 참조하면, 제1 객체 이미지(41a)는 제1 카메라로부터 인식된 객체 이미지이고, 제2 객체 이미지(42a)는 제2 카메라로부터 인식된 객체 이미지이고, 제3 객체 이미지(43a)는 제3 카메라로부터 인식된 객체 이미지일 수 있다. 일 실시 예에 따르면, 전자 장치는 각각의 객체 이미지에 식별 번호를 부여할 수 있으며, 각각의 식별 번호는 대응되는 카메라에 대한 정보를 포함할 수 있다. 일 실시 예에서, 도 4의 (a)에 도시된 바와 같이, 제1 객체 이미지(41a)의 식별 번호는 'a-14'일 수 있고, 'a'는 제1 객체 이미지(41a)가 제1 카메라에서 식별된 객체 이미지라는 것을 의미할 수 있고, '14'는 제1 카메라에서 인식된 객체 이미지의 일련번호를 의미할 수 있다. 일 실시 예에서, 제2 객체 이미지(42a)의 식별 번호는 'b-7'일 수 있고, 'b'는 제2 객체 이미지(42a)가 제2 카메라에서 식별된 객체 이미지라는 것을 의미할 수 있고, '7'은 제2 카메라에서 인식된 객체 이미지의 일련번호를 의미할 수 있다. 일 실시 예에서, 제3 객체 이미지(43a)의 식별 번호는 'c-20'일 수 있고, 'c'는 제3 객체 이미지(43a)가 제3 카메라에서 식별된 객체 이미지라는 것을 의미할 수 있고, '20'은 제3 카메라에서 인식된 객체 이미지의 일련번호를 의미할 수 있다. 4A , a
본 명세서에서 사용되는 객체 이미지의 식별 번호는 상기와 유사한 형태일 수 있고, 식별 번호의 의미도 상기와 유사하게 이해될 수 있다. 예컨대, 도 4의 (b)에 도시된 제4 객체 이미지(44b)의 식별 번호는 'a-6'일 수 있다. 일 실시 예에서, 'a'는 제4 객체 이미지(44b)가, 제1 객체 이미지(41b)와 동일하게, 제1 카메라에서 식별된 객체 이미지라는 것을 의미할 수 있고, '6'은 제1 카메라에서 인식된 객체 이미지의 일련번호를 의미할 수 있다. The identification number of the object image used herein may have a form similar to the above, and the meaning of the identification number may be understood similarly to the above. For example, the identification number of the fourth object image 44b shown in (b) of FIG. 4 may be 'a-6'. In an embodiment, 'a' may mean that the fourth object image 44b is an object image identified by the first camera, and '6' is the
일 실시 예에 따르면, 도 4의 (a)에서 제1 객체 이미지(41a), 제2 객체 이미지(42a), 및 제3 객체 이미지(43a)는 서로 상이한 카메라로부터 인식된 객체 이미지들일 수 있으며, 각각의 객체 이미지 사이의 거리는 지정된 임계 값 보다 작을 수 있다. 예컨대, 제1 객체 이미지(41a) 및 제2 객체 이미지(42a) 사이의 거리, 제2 객체 이미지(42a) 및 제3 객체 이미지(43a) 사이의 거리, 및 제3 객체 이미지(43a) 및 제1 객체 이미지(41a) 사이의 거리는 상기 지정된 임계 값 보다 작을 수 있다. 이 경우, 전자 장치는 제1 객체 이미지(41a), 제2 객체 이미지(42a), 및 제3 객체 이미지(43a)가 동일한 객체에 대응할 가능성이 지정된 수준보다 높은 것으로 판단할 수 있다. 전자 장치는 제1 객체 이미지(41a), 제2 객체 이미지(42a), 및 제3 객체 이미지(43a)를 그룹화 할 수 있다.According to one embodiment, the
일 실시 예에서, 제1 객체 이미지(41a), 제2 객체 이미지(42a), 및 제3 객체 이미지(43a)는 동일한 객체에 대응하는 객체 이미지들로서 그룹화 될 수 있고, 제1 객체 이미지(41a) 세트에 포함하는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제1 객체 이미지(41a) 세트에 포함되는 객체 이미지들 각각의 식별 번호로서, 제1 식별 번호 세트를 획득할 수 있고, 상기 제1 객체 이미지(41a) 세트에 대응하는 객체는 객체 A로서 특정할 수 있다.In an embodiment, the
일 실시 예에 따르면, 도 4의 (b)에서 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)는 서로 상이한 카메라로부터 인식된 객체 이미지들일 수 있으며, 각각의 객체 이미지 사이의 거리는 지정된 임계 값 보다 작을 수 있다. 예컨대, 제1 객체 이미지(41b) 및 제2 객체 이미지(42b) 사이의 거리, 제2 객체 이미지(42b) 및 제3 객체 이미지(43b) 사이의 거리, 및 제3 객체 이미지(43b) 및 제1 객체 이미지(41b) 사이의 거리는 상기 지정된 임계 값 보다 작을 수 있다. According to an embodiment, the
일 실시 예에서, 제4 객체 이미지(44b)는 제1 객체 이미지(41b)를 기준으로 상기 지정된 임계 값 보다 작은 거리만큼 떨어져 있을 수 있고, 제2 객체 이미지(42b) 또는 제3 객체 이미지(43b) 기준으로는 상기 지정된 임계 값 보다 큰 거리만큼 떨어져 있을 수 있다. 다양한 실시 예에서, 제4 객체 이미지(44b)는 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)의 그룹화가 이루어지기 전에 인식될 수도 있고, 상기 객체 이미지들의 그룹화가 이루어진 이후에 인식될 수도 있다. 이 경우, 전자 장치는 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)에 대하여 동일한 객체에 대응할 가능성이 지정된 수준보다 높은 것으로 판단할 수 있고, 제4 객체 이미지(44b)에 대하여 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)가 대응하는 객체와 동일한 객체에 대응할 가능성이 지정된 수준보다 낮은 것으로 판단할 수 있다. 전자 장치는 제4 객체 이미지(44b)를 제외한 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)를 그룹화 할 수 있다. In an embodiment, the fourth object image 44b may be spaced apart by a distance smaller than the specified threshold with respect to the
일 실시 예에서, 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)는 동일한 객체에 대응하는 객체 이미지들로서, 제2 객체 이미지(42b) 세트에 포함하는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제2 객체 이미지(42b) 세트로서 객체 이미지들의 그룹화가 이루어진 이후에 제4 객체 이미지(44b)가 인식되더라도, 제4 객체 이미지(44b)를 상기 제2 객체 이미지(42b) 세트에 포함되지 않도록 할 수 있다. 일 실시 예에서, 전자 장치는 상기 제2 객체 이미지(42b) 세트에 포함되는 객체 이미지들 각각의 식별 번호로서, 제2 식별 번호 세트를 획득할 수 있고, 상기 제2 객체 이미지(42b) 세트에 대응하는 객체는 객체 B로서 특정할 수 있다.In one embodiment, the
일 실시 예에 따르면, 도 4의 (c)에서 제1 객체 이미지(41c), 제2 객체 이미지(42c), 및 제3 객체 이미지(43c)는 서로 상이한 카메라로부터 인식된 객체 이미지들일 수 있으며, 각각의 객체 이미지 사이의 거리는 지정된 임계 값 보다 작을 수 있다. 예컨대, 제1 객체 이미지(41c) 및 제2 객체 이미지(42c) 사이의 거리, 제2 객체 이미지(42c) 및 제3 객체 이미지(43c) 사이의 거리, 및 제3 객체 이미지(43c) 및 제1 객체 이미지(41c) 사이의 거리는 상기 지정된 임계 값 보다 작을 수 있다. 일 실시 예에서, 제4 객체 이미지(44c)는 제1 객체 이미지(41c)를 기준으로 상기 지정된 임계 값 보다 작은 거리만큼 떨어져 있을 수 있고, 제2 객체 이미지(42c) 및 제3 객체 이미지(43c) 기준으로도 상기 지정된 임계 값 보다 큰 거리만큼 떨어져 있을 수 있다. 다시 말해, 제1 카메라에 대응하는 둘 이상의 객체 이미지들(예: 제1 객체 이미지(41c) 및 제4 객체 이미지(44c))이 제2 객체 이미지(42c) 및 제3 객체 이미지(43c)와 상기 지정된 임계 값 보다 작은 거리만큼 떨어져 있을 수 있다. 이 경우, 제1 객체 이미지(41c) 및 제4 객체 이미지(44c) 중 어느 객체 이미지가 제2 객체 이미지(42c) 및 제3 객체 이미지(43c)가 대응하는 객체와 동일한 객체에 대응하는지 불분명할 수 있으므로, 전자 장치는 상기 제1 카메라에 대응하는 제1 객체 이미지(41c) 및 제4 객체 이미지(44c)는 그룹화 하지 않고, 상기 제1 카메라를 제외한 나머지 카메라들(예: 제2 카메라, 제3 카메라)에 대응하는 제2 객체 이미지(42c) 및 제3 객체 이미지(43c)를 그룹화 할 수 있다. According to an embodiment, the first object image 41c, the
일 실시 예에서, 제2 객체 이미지(42c) 및 제3 객체 이미지(43c)는 동일한 객체에 대응하는 객체 이미지들로서, 제3 객체 이미지(43c) 세트에 포함하는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제3 객체 이미지(43c) 세트에 포함되는 객체 이미지들 각각의 식별 번호로서, 제3 식별 번호 세트를 획득할 수 있고, 상기 제3 객체 이미지(43c) 세트에 대응하는 객체는 객체 C로서 특정할 수 있다.In an embodiment, the
일 실시 예에 따르면, 도 4의 (d)에서 제1 객체 이미지(41d), 제2 객체 이미지(42d), 및 제3 객체 이미지(43d)는 서로 상이한 카메라로부터 인식된 객체 이미지들일 수 있으나, 제1 객체 이미지(41d)는 제2 객체 이미지(42d) 및 제3 객체 이미지(43d)와 지정된 임계 값 보다 큰 거리만큼 떨어져 있을 수 있다. 예컨대, 제2 객체 이미지(42d) 및 제3 객체 이미지(43d) 사이의 거리는 상기 지정된 임계 값 보다 작을 수 있으나, 제1 객체 이미지(41d) 및 제2 객체 이미지(42d) 사이의 거리 및 제3 객체 이미지(43d) 및 제1 객체 이미지(41d) 사이의 거리는 상기 지정된 임계 값 보다 클 수 있다. 이 경우, 전자 장치는 제1 객체 이미지(41d)가 제2 객체 이미지(42d) 및 제3 객체 이미지(43d)가 대응하는 객체와 동일한 객체에 대응할 가능성이 지정된 수준보다 낮다고 판단할 수 있다. 전자 장치는 제1 객체 이미지(41d)를 제외하고 제2 객체 이미지(42d) 및 제3 객체 이미지(43d)를 그룹화 할 수 있다.According to an embodiment, the
일 실시 예에서, 제2 객체 이미지(42d) 및 제3 객체 이미지(43d)는 동일한 객체에 대응하는 객체 이미지들로서, 제4 객체 이미지 세트에 포함하는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제4 객체 이미지 세트에 포함되는 객체 이미지들 각각의 식별 번호로서, 제4 식별 번호 세트를 획득할 수 있고, 상기 제4 객체 이미지 세트에 대응하는 객체는 객체 D로서 특정할 수 있다.In an embodiment, the
도 5는 일 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체 이미지들을 각각의 객체에 대응하는 객체 이미지 세트로 그룹화하는 방법을 나타낸다.5 illustrates a method of grouping, by an electronic device, object images into an object image set corresponding to each object in a process in which a plurality of objects are overlapped and separated, according to an embodiment.
도 5를 참조하면, 도 5에 도시된 이미지 데이터들은, 예컨대, 홈 베이스 쪽에 위치하는 제3 카메라를 이용하여 획득된 것일 수 있다. 일 실시 예에 따르면, 복수의 객체들이 겹쳐지고 분리되는 과정은, 예컨대, 1루 베이스의 주자가 1루 수비수의 좌측에서 우측으로 이동하는 과정으로서, 제1 상태(501), 제2 상태(502), 제3 상태(503)를 포함하는 과정으로 이해될 수 있다. 일 실시 예에서, 제1 상태(501)는 도 5에 도시된 바와 같이, 1루 베이스의 주자가 1루 수비수의 좌측에 위치하는 상태일 수 있고, 제2 상태(502)는 도 5에 도시된 바와 같이, 1루 베이스의 주자가 1루 수비수의 뒤쪽에 위치하는 상태일 수 있고, 제3 상태(503)는 도 5에 도시된 바와 같이, 1루 베이스의 주자가 1루 수비수의 우측에 위치하는 상태일 수 있다. 일 실시 예에 따르면, 홈 베이스 쪽에 위치하는 제3 카메라에서 바라보았을 때에는 제2 상태(502)에서 주자와 수비수는 겹쳐져 있는 것으로 보일 수 있으나, 3루 베이스 또는 1루 베이스 쪽에 위치하는 제1 카메라 또는 제2 카메라에서 바라보았을 때에는 제1 상태(501), 제2 상태(502), 및 제3 상태(503)에서 모두 주자와 수비수가 겹쳐져 있지 않은 것으로 보일 수 있다.Referring to FIG. 5 , the image data shown in FIG. 5 may be obtained using, for example, a third camera located on the home base side. According to an embodiment, the process of overlapping and separating the plurality of objects is, for example, a process in which a first base runner moves from the left to the right of the first base defender, in a
제1 상태(501)에서, 전자 장치는 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 예를 들어, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서, 'a-14' 객체 이미지 및 'a-11' 객체 이미지가 인식될 수 있고, 제2 카메라를 이용하여 획득된 제2 이미지 데이터에서, 'b-7' 객체 이미지 및 'b-2' 객체 이미지가 인식될 수 있고, 제3 카메라를 이용하여 획득된 제3 이미지 데이터에서, 'c-20' 객체 이미지 및 'c-16' 객체 이미지가 인식될 수 있다. 전자 장치는 그룹화 과정을 통해, 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-20' 객체 이미지를 동일한 객체인 객체 A(주자)에 대응하는 것으로 결정하고 상기 객체 이미지들을 제1 객체 이미지 세트로서 선택할 수 있다. 전자 장치는 또한, 그룹화 과정을 통해, 'a-11' 객체 이미지, 'b-2' 객체 이미지, 및 'c-16' 객체 이미지를 동일한 객체인 객체 B(수비수)에 대응하는 것으로 결정하고, 상기 객체 이미지들을 제2 객체 이미지 세트로서 선택할 수 있다. 이 경우, 전자 장치는 상기 그룹화 과정을 통해, 객체 A에 대한 제1 식별 번호 세트 및 객체 B에 대한 제2 식별 번호 세트를 각각 획득할 수 있다.In the
제2 상태(502)에서, 전자 장치는 제1 상태(501)와 동일하게 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 일 실시 예에서, 제3 카메라에서 바라보았을 때에는 1루 베이스의 주자와 1루 수비수가 겹쳐져 있는 하나의 객체로 인식될 수도 있다. 이 경우, 제3 카메라를 이용하여 획득된 제3 이미지 데이터에서는 'c-16' 객체 이미지만 인식될 수 있고, 'c-20' 객체 이미지는 인식되지 않을 수 있다. 다시 말해, 전자 장치가 제1 상태(501)에서 객체 A에 대응하는 제1 객체 이미지 세트에 'c-20' 객체 이미지가 포함하도록 객체 이미지들을 선택한 이후에, 제2 상태(502)에서 'c-20' 객체 이미지는, 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들(예" 'a-14' 객체 이미지 및 'b-7' 객체 이미지)로부터 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않을 수 있다. 이 경우, 전자 장치는 'a-14' 객체 이미지 및 'b-7' 객체 이미지만으로 그룹화를 수행할 수 있다.In the
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되었기 때문에, 객체 이미지 세트에 대응하는 객체가 어떤 객체인지를 다시 결정할 수 있다. 예를 들면, 전자 장치는 'a-14' 객체 이미지 및 'b-7' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-14’ 객체 이미지 및 ‘b-7’ 객체 이미지가 모두 종래에 객체 A에 대응하는 객체 이미지였기 때문에, 전자 장치는 상기 객체 이미지 세트 역시 객체 A에 대응하는 것으로 결정할 수 있다. 이에 따라, 제1 객체 이미지 세트는 상기 'c-20' 객체 이미지를 제외하도록 구성이 변경될 수 있다. 다양한 실시 예에서, 제1 객체 이미지 세트의 구성이 변경되는 것은 제1 객체 이미지 세트가 업데이트 되는 것과 동일 또는 유사하게 이해될 수 있다. 또한, 전자 장치는 객체 A에 대한 제1 식별 번호 세트에 대하여, 식별 번호 'c-20'을 제외하도록 구성을 변경할 수 있다. According to an embodiment, since the configuration of the object image set is changed, the electronic device may determine again which object the object corresponding to the object image set is. For example, the electronic device may reset the object to which the object image set including the 'a-14' object image and the 'b-7' object image corresponds. In an embodiment, since both the object image 'a-14' and the object image 'b-7' have conventionally been object images corresponding to object A, the electronic device may determine that the object image set also corresponds to object A. have. Accordingly, the configuration of the first object image set may be changed to exclude the 'c-20' object image. In various embodiments, a change in the configuration of the first object image set may be understood as the same or similar to that of the first object image set being updated. Also, the electronic device may change the configuration to exclude the identification number 'c-20' from the first identification number set for the object A.
일 실시 예에 따르면, 전자 장치는 객체를 보다 정확하게 인식할 수 있다고 판단되는 카메라의 우선순위를 높게 설정하고, 객체를 상대적으로 인식하기 어렵다고 판단되는 카메라의 우선순위는 낮게 설정할 수 있다. 일 실시 예에서, 제1 객체 이미지 세트는 'c-20' 객체 이미지를 제외하도록 업데이트 되었으므로, 전자 장치는 상기 'c-20' 객체 이미지에 대응하는 카메라, 예컨대, 제3 카메라에서 객체 A를 정확히 인식하기 어렵다고 판단할 수 있다. 전자 장치는 제3 카메라의 우선순위를 제1 카메라의 우선순위 및 제2 카메라의 우선순위 보다 낮게 설정할 수 있다. According to an embodiment, the electronic device may set a higher priority of a camera that is determined to be able to recognize an object more accurately and set a lower priority of a camera that is determined that it is relatively difficult to recognize an object. In an embodiment, since the first object image set has been updated to exclude the 'c-20' object image, the electronic device accurately detects the object A from the camera corresponding to the 'c-20' object image, for example, the third camera. It can be considered difficult to recognize. The electronic device may set the priority of the third camera to be lower than the priority of the first camera and the priority of the second camera.
일 실시 예에 따르면, 전자 장치는 제3 카메라에서 객체 A가 객체 B에 겹쳐져 보이게 되더라도, 제1 카메라 및 제2 카메라에서 인식되는 객체 이미지들을 이용하여 객체 이미지 세트를 업데이트 함으로써 객체 A의 위치를 정확하게 추적할 수 있다.According to an embodiment, even when the object A is superimposed on the object B in the third camera, the electronic device updates the object image set using the object images recognized by the first camera and the second camera to accurately determine the position of the object A. can be tracked
제3 상태(503)에서, 전자 장치는 제1 상태(501) 및 제2 상태(502)와 동일하게 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 일 실시 예에서, 전자 장치는 제3 카메라를 이용하여 획득한 제3 이미지 데이터에서 'c-24' 객체 이미지를 인식할 수 있다. 즉, 전자 장치는 제1 상태(501)에서 인식되었다가 제2 상태(502)에서 인식하지 못했던 'c-20' 객체 이미지 대신 새로운 객체 이미지로서 'c-24' 객체 이미지를 제2 상태(502) 이후의 제3 상태(503)에서 인식할 수 있다. 예를 들어, 제2 상태(502)에서 제1 객체 이미지 세트가 상기 'c-20' 객체 이미지를 제외하도록 구성이 변경된 이후에, 전자 장치는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들(예: 'a-14' 객체 이미지 및 'b-7' 객체 이미지)과의 거리가 지정된 임계 값 보다 작은 'c-24' 객체 이미지를 제3 이미지 데이터로부터 인식할 수 있다. 이 경우, 전자 장치는 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-24' 객체 이미지에 대하여 다시 그룹화를 수행할 수 있다.In the
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되었기 때문에, 객체 이미지 세트에 대응하는 객체가 어떤 객체인지를 다시 결정할 수 있다. 예를 들면, 전자 장치는 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-24' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-14’ 객체 이미지 및 ‘b-7’ 객체 이미지 모두 종래에 객체 A에 대응하는 객체 이미지였고 'c-24' 객체 이미지는 새로운 객체 이미지이기 때문에, 전자 장치는 상기 객체 이미지 세트 역시 객체 A에 대응하는 것으로 결정할 수 있다. 일 실시 예에서, 전자 장치는 카메라의 우선순위에 기초하여 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다. 예를 들어, 상기 제2 상태(502)에서 제3 카메라의 우선순위는 제1 카메라의 우선순위 및 제2 카메라의 우선순위보다 낮게 설정되었으므로, 전자 장치는 제1 카메라 및 제2 카메라에 기초하여 상기 대응하는 객체를 설정할 수 있다. 일 실시 예에서, 제1 카메라를 이용한 이미지 데이터에서 인식된 'a-14' 객체 이미지 및 제2 카메라를 이용한 이미지 데이터에서 인식된 'b-7' 객체 이미지는 모두 객체 A에 대응하는 객체 이미지였으므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체를 객체 A로 설정할 수 있다.According to an embodiment, since the configuration of the object image set is changed, the electronic device may determine again which object the object corresponding to the object image set is. For example, the electronic device may reset the object to which the object image set including the 'a-14' object image, the 'b-7' object image, and the 'c-24' object image corresponds. In an embodiment, since both the 'a-14' object image and the 'b-7' object image are conventionally object images corresponding to object A and the 'c-24' object image is a new object image, the electronic device The image set may also be determined to correspond to object A. In an embodiment, the electronic device may set the object to which the object image set corresponds based on the priority of the camera. For example, in the
이에 따라, 객체 A에 대응하는 제1 객체 이미지 세트는 'c-24' 객체 이미지를 더 포함하도록 구성이 변경될 수 있다. 또한, 전자 장치는 객체 A에 대한 제1 식별 번호 세트에 대하여, 식별 번호 'c-24'를 더 포함하도록 구성을 변경할 수 있다. Accordingly, the configuration of the first object image set corresponding to the object A may be changed to further include the 'c-24' object image. Also, the electronic device may change the configuration of the first set of identification numbers for object A to further include identification number 'c-24'.
일 실시 예에 따르면, 전자 장치는 제3 카메라에서 객체 A가 객체 B에 겹쳐져 보인 후에 다시 분리되어 나타나게 되더라도, 제3 카메라에서 새롭게 인식되는 객체 이미지를 객체 이미지 세트에 포함되도록 객체 이미지 세트를 업데이트 함으로써 객체 A 및 객체 B의 위치를 정확하게 추적할 수 있다.According to an embodiment, the electronic device updates the object image set so that the object image newly recognized by the third camera is included in the object image set, even when the object A appears to be separated again after being superimposed on the object B in the third camera. The location of object A and object B can be accurately tracked.
도 6은 다른 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체 이미지들을 각각의 객체에 대응하는 객체 이미지 세트로 그룹화하는 방법을 나타낸다.6 is a diagram illustrating a method in which an electronic device groups object images into an object image set corresponding to each object while a plurality of objects are overlapped and separated, according to another exemplary embodiment.
도 6을 참조하면, 도 6에 도시된 이미지 데이터들은, 예컨대, 1루 베이스 쪽에 위치하는 제2 카메라를 이용하여 획득된 것일 수 있다. 일 실시 예에 따르면, 복수의 객체들이 겹쳐지고 분리되는 과정은, 예컨대, 포수가 타자의 앞쪽으로 이동하였다가 뒤로 이동하는 과정으로서, 제1 상태(601), 제2 상태(602), 제3 상태(603)를 포함하는 과정으로 이해될 수 있다. 일 실시 예에서, 제1 상태(601)는 도 6에 도시된 바와 같이, 포수가 홈 베이스 쪽에 가깝게 위치한 상태일 수 있고, 제2 상태(602)는 도 6에 도시된 바와 같이, 포수가 홈 베이스로부터 멀어지면서 타자와 나란히 위치하는 상태일 수 있고, 제3 상태(603)는 도 6에 도시된 바와 같이, 포수가 타자보다 홈 베이스로부터 더 멀리 뒤쪽으로 떨어진 상태일 수 있다. 일 실시 예에 따르면, 1루 베이스 쪽에 위치하는 제2 카메라에서 바라보았을 때에는 제2 상태(602)에서 타자와 포수는 겹쳐져 있는 것으로 보일 수 있으나, 3루 베이스 또는 홈 베이스 쪽에 위치하는 제1 카메라 또는 제3 카메라에서 바라보았을 때에는 제1 상태(601), 제2 상태(602), 및 제3 상태(603)에서 모두 타자와 포수가 겹쳐져 있지 않은 것으로 보일 수 있다.Referring to FIG. 6 , the image data shown in FIG. 6 may be obtained using, for example, a second camera located on the first base side. According to an embodiment, the process of overlapping and separating the plurality of objects is, for example, a process in which the catcher moves to the front of the batter and then to the back of the batter. The
제1 상태(601)에서, 전자 장치는 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 예를 들어, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서, 'a-22' 객체 이미지 및 'a-15' 객체 이미지가 인식될 수 있고, 제2 카메라를 이용하여 획득된 제2 이미지 데이터에서, 'b-4' 객체 이미지 및 'b-22' 객체 이미지가 인식될 수 있고, 제3 카메라를 이용하여 획득된 제3 이미지 데이터에서, 'c-17' 객체 이미지 및 'c-32' 객체 이미지가 인식될 수 있다. 전자 장치는 그룹화 과정을 통해, 'a-22' 객체 이미지, 'b-4' 객체 이미지, 및 'c-17' 객체 이미지를 동일한 객체인 객체 C(타자)에 대응하는 것으로 결정하고 상기 객체 이미지들을 제3 객체 이미지 세트로서 선택할 수 있다. 전자 장치는 또한, 그룹화 과정을 통해, 'a-15' 객체 이미지, 'b-22' 객체 이미지, 및 'c-32' 객체 이미지를 동일한 객체인 객체 D(포수)에 대응하는 것으로 결정하고, 상기 객체 이미지들을 제4 객체 이미지 세트로서 선택할 수 있다. 이 경우, 전자 장치는 상기 그룹화 과정을 통해, 객체 C에 대한 제3 식별 번호 세트 및 객체 D에 대한 제4 식별 번호 세트를 각각 획득할 수 있다.In the
제2 상태(602)에서, 전자 장치는 제1 상태(601)와 동일하게 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 일 실시 예에서, 제2 카메라에서 바라보았을 때에는 타자와 포수가 겹쳐져 있는 하나의 객체로 인식될 수도 있다. 이 경우, 제2 카메라를 이용하여 획득된 제2 이미지 데이터에서는 'b-22' 객체 이미지만 인식될 수 있고, 'b-4' 객체 이미지는 인식되지 않을 수 있다. 다시 말해, 전자 장치가 제1 상태(601)에서 객체 C에 대응하는 제3 객체 이미지 세트에 'b-4' 객체 이미지가 포함하도록 객체 이미지들을 선택한 이후에, 제2 상태(602)에서 'b-4' 객체 이미지는, 제3 객체 이미지 세트에 포함되는 나머지 객체 이미지들(예" 'a-22' 객체 이미지 및 'c-17' 객체 이미지)로부터 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않을 수 있다. 이 경우, 전자 장치는 'a-22' 객체 이미지 및 'c-17' 객체 이미지만으로 그룹화를 수행할 수 있다.In the
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되었기 때문에, 객체 이미지 세트에 대응하는 객체가 어떤 객체인지를 다시 결정할 수 있다. 예를 들면, 전자 장치는 'a-22' 객체 이미지 및 'c-17' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-22’ 객체 이미지 및 ‘c-17’ 객체 이미지가 모두 종래에 객체 C에 대응하는 객체 이미지였기 때문에, 전자 장치는 상기 객체 이미지 세트 역시 객체 C에 대응하는 것으로 결정할 수 있다. 이에 따라, 제3 객체 이미지 세트는 상기 'b-4' 객체 이미지를 제외하도록 구성이 변경될 수 있다. 다양한 실시 예에서, 제1 객체 이미지 세트의 구성이 변경되는 것은 제1 객체 이미지 세트가 업데이트 되는 것과 동일 또는 유사하게 이해될 수 있다. 또한, 전자 장치는 객체 C에 대한 제3 식별 번호 세트에 대하여, 식별 번호 'b-4'를 제외하도록 업데이트할 수 있다. According to an embodiment, since the configuration of the object image set is changed, the electronic device may determine again which object the object corresponding to the object image set is. For example, the electronic device may reset the object to which the object image set including the 'a-22' object image and the 'c-17' object image corresponds. In an embodiment, since both the 'a-22' object image and the 'c-17' object image have conventionally been object images corresponding to the object C, the electronic device may determine that the object image set also corresponds to the object C. have. Accordingly, the configuration of the third object image set may be changed to exclude the 'b-4' object image. In various embodiments, a change in the configuration of the first object image set may be understood as the same or similar to that of the first object image set being updated. Also, the electronic device may update the third identification number set for object C to exclude identification number 'b-4'.
일 실시 예에 따르면, 전자 장치는 객체를 보다 정확하게 인식할 수 있다고 판단되는 카메라의 우선순위를 높게 설정하고, 객체를 상대적으로 인식하기 어렵다고 판단되는 카메라의 우선순위는 낮게 설정할 수 있다. 일 실시 예에서, 제3 객체 이미지 세트는 'b-4' 객체 이미지를 제외하도록 업데이트 되었으므로, 전자 장치는 상기 'b-4' 객체 이미지에 대응하는 카메라, 예컨대, 제2 카메라에서 객체 C를 정확히 인식하기 어렵다고 판단할 수 있다. 전자 장치는 제2 카메라의 우선순위를 제1 카메라의 우선순위 및 제3 카메라의 우선순위 보다 낮게 설정할 수 있다.According to an embodiment, the electronic device may set a higher priority of a camera that is determined to be able to recognize an object more accurately and set a lower priority of a camera that is determined that it is relatively difficult to recognize an object. In an embodiment, since the third object image set has been updated to exclude the 'b-4' object image, the electronic device accurately captures the object C from the camera corresponding to the 'b-4' object image, for example, the second camera. It can be considered difficult to recognize. The electronic device may set the priority of the second camera to be lower than the priority of the first camera and the priority of the third camera.
일 실시 예에 따르면, 전자 장치는 제2 카메라에서 객체 C가 객체 D에 겹쳐져 보이게 되더라도, 제1 카메라 및 제3 카메라에서 인식되는 객체 이미지들을 이용하여 객체 이미지 세트를 업데이트 함으로써 객체 C의 위치를 정확하게 추적할 수 있다.According to an embodiment, even if the object C is superimposed on the object D in the second camera, the electronic device updates the object image set using the object images recognized by the first camera and the third camera to accurately determine the position of the object C. can be tracked
제3 상태(603)에서, 전자 장치는 제1 상태(601) 및 제2 상태(602)와 동일하게 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 일 실시 예에서, 전자 장치는 제2 카메라를 이용하여 획득한 제2 이미지 데이터에서 'b-4' 객체 이미지 및 'b-22' 객체 이미지를 인식할 수 있다. 즉, 전자 장치는 제1 상태(601)에서 인식되었다가 제2 상태(602)에서 인식하지 못했던 'b-4' 객체 이미지를 다시 인식할 수 있다. 일 실시 예에서, 객체 C 및 객체 D가 겹쳐져 있던 상태에서 분리되었기 때문에, 'b-22' 객체 이미지는 객체 D에 대응하는 것으로 인식될 수 있고, 'b-4' 객체 이미지는 객체 C에 대응하는 것으로 인식될 수 있다. 다시 말해, 제2 카메라에서 획득한 제2 이미지 데이터에서 인식되는 객체 이미지들 사이에서 스위칭이 발생할 수 있다.In the
일 실시 예에서, 전자 장치는 제3 상태(603)에서 객체 이미지들에 대한 그룹화를 다시 수행할 수 있다. 예를 들어, 전자 장치는 서로 상이한 이미지 데이터에서 인식되고 상호 간의 거리가 지정된 임계 값 보다 작은 'a-22' 객체 이미지, 'b-22' 객체 이미지, 및 'c-17' 객체 이미지를 동일한 객체에 대응하는 것으로 결정할 수 있다. 다른 예를 들어, 전자 장치는 서로 상이한 이미지 데이터에서 인식되고 상호 간의 거리가 지정된 임계 값 보다 작은 ‘a-15’ 객체 이미지, ‘b-4’ 객체 이미지, 및 ‘c-32’ 객체 이미지를 동일한 객체에 대응하는 것으로 결정할 수 있다.In an embodiment, the electronic device may re-group object images in the
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되었기 때문에, 객체 이미지 세트에 대응하는 객체가 어떤 객체인지를 다시 결정할 수 있다. 예를 들면, 전자 장치는 'a-22' 객체 이미지, 'b-22' 객체 이미지, 및 'c-17' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-22’ 객체 이미지 및 ‘c-17’ 객체 이미지는 종래에 객체 C에 대응하는 객체 이미지였고 'b-22' 객체 이미지는 종래에 객체 D에 대응하는 객체 이미지였다. According to an embodiment, since the configuration of the object image set is changed, the electronic device may determine again which object the object corresponding to the object image set is. For example, the electronic device may reset the object to which the object image set including the 'a-22' object image, the 'b-22' object image, and the 'c-17' object image corresponds. In an embodiment, the 'a-22' object image and the 'c-17' object image were conventionally an object image corresponding to object C, and the 'b-22' object image was conventionally an object image corresponding to object D.
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되는 경우, 상기 객체 이미지 세트가 대응하는 객체는 과반의 객체 이미지가 종래에 대응하였던 객체인 것으로 설정할 수 있다. 예를 들어, 상기 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지들('a-22' 객체 이미지 및 'c-17' 객체 이미지)이 객체 C에 대응하는 객체 이미지이므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체는 객체 C인 것으로 설정할 수 있다. According to an embodiment, when the configuration of the object image set is changed, the electronic device may set an object to which the object image set corresponds to an object to which a majority of object images have been conventionally. For example, since most of the object images ('a-22' object image and 'c-17' object image) among the object images included in the object image set are object images corresponding to object C, the electronic device The object to which the object image set corresponds may be set to be object C.
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되는 경우, 카메라의 우선순위에 기초하여 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다. 예를 들어, 상기 제2 상태(602)에서 제2 카메라의 우선순위는 제1 카메라의 우선순위 및 제3 카메라의 우선순위보다 낮게 설정되었으므로, 전자 장치는 제1 카메라 및 제3 카메라에 기초하여 상기 대응하는 객체를 설정할 수 있다. 일 실시 예에서, 제1 카메라를 이용한 이미지 데이터에서 인식된 'a-22' 객체 이미지 및 제3 카메라를 이용한 이미지 데이터에서 인식된 'c-17' 객체 이미지는 모두 객체 C에 대응하는 객체 이미지였으므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체를 객체 C로 설정할 수 있다.According to an embodiment, when the configuration of the object image set is changed, the electronic device may set the object to which the object image set corresponds based on the priority of the camera. For example, in the
일 실시 예에서, 전자 장치는 ‘a-15’ 객체 이미지, ‘b-4’ 객체 이미지, 및 ‘c-32’ 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-15’ 객체 이미지 및 ‘c-32’ 객체 이미지는 종래에 객체 D 대응하는 객체 이미지였고 ‘b-4’ 객체 이미지는 종래에 객체 C에 대응하는 객체 이미지였다. In an embodiment, the electronic device may reset an object to which an object image set including an 'a-15' object image, a 'b-4' object image, and a 'c-32' object image corresponds. In an embodiment, the 'a-15' object image and the 'c-32' object image were conventionally object images corresponding to object D and the 'b-4' object image was conventionally an object image corresponding to object C.
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되는 경우, 상기 객체 이미지 세트가 대응하는 객체는 과반의 객체 이미지가 종래에 대응하였던 객체인 것으로 설정할 수 있다. 예를 들어, 상기 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지들('a-15' 객체 이미지 및 'c-32' 객체 이미지)이 객체 D에 대응하는 객체 이미지이므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체는 객체 D인 것으로 설정할 수 있다. According to an embodiment, when the configuration of the object image set is changed, the electronic device may set an object to which the object image set corresponds to an object to which a majority of object images have been conventionally. For example, since most of the object images ('a-15' object image and 'c-32' object image) among the object images included in the object image set are object images corresponding to object D, the electronic device The object to which the object image set corresponds may be set to be object D.
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되는 경우, 카메라의 우선순위에 기초하여 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다. 예를 들어, 상기 제2 상태(602)에서 제2 카메라의 우선순위는 제1 카메라의 우선순위 및 제3 카메라의 우선순위보다 낮게 설정되었으므로, 전자 장치는 제1 카메라 및 제3 카메라에 기초하여 상기 대응하는 객체를 설정할 수 있다. 일 실시 예에서, 제1 카메라를 이용한 이미지 데이터에서 인식된 'a-15' 객체 이미지 및 제3 카메라를 이용한 이미지 데이터에서 인식된 'c-32' 객체 이미지는 모두 객체 D에 대응하는 객체 이미지였으므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체를 객체 D로 설정할 수 있다.According to an embodiment, when the configuration of the object image set is changed, the electronic device may set the object to which the object image set corresponds based on the priority of the camera. For example, in the
이에 따라, 객체 C에 대응하는 제3 객체 이미지 세트는 'b-22' 객체 이미지를 더 포함하도록 구성이 변경될 수 있고, 객체 D에 대응하는 제4 객체 이미지 세트는 'b-22' 객체 이미지를 제외하고 'b-4' 객체 이미지를 더 포함하도록 구성이 변경될 수 있다. 또한, 전자 장치는 객체 C에 대한 제3 식별 번호 세트에 대하여, 식별 번호 'b-22'를 더 포함하도록 구성을 변경할 수 있고, 객체 D에 대한 제4 식별 번호 세트에 대하여, 식별 번호 'b-22'를 제외하고 식별 번호 'b-4'를 더 포함하도록 구성을 변경할 수 있다. Accordingly, the configuration of the third object image set corresponding to the object C may be changed to further include the 'b-22' object image, and the fourth object image set corresponding to the object D is the 'b-22' object image. Except for , the configuration may be changed to further include a 'b-4' object image. In addition, the electronic device may change the configuration to further include identification number 'b-22' with respect to the third set of identification numbers for object C, and identification number 'b' for the fourth set of identification numbers for object D Except for -22', the configuration can be changed to further include identification number 'b-4'.
일 실시 예에 따르면, 전자 장치는 제2 카메라에서 객체 C가 객체 D에 겹쳐져 보인 후에 다시 분리되어 나타나고, 이를 통해 객체 이미지들 사이에서 스위칭이 발생하더라도, 객체 이미지 세트들을 업데이트 함으로써 객체 C 및 객체 D의 위치를 정확하게 추적할 수 있다.According to an embodiment, the electronic device separates and appears again after the object C is superimposed on the object D in the second camera, and through this, even if switching between object images occurs, the electronic device updates the object image sets by updating the object image sets. location can be accurately tracked.
도 7a는 일 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체의 식별 번호를 결정하는 방법을 나타낸다. 7A illustrates a method for an electronic device to determine an identification number of an object in a process in which a plurality of objects are overlapped and separated, according to an embodiment.
도 7a를 참조하면, 복수의 객체들이 겹쳐지고 분리되는 과정은 제1 상태(701a), 제2 상태(702a), 및 제3 상태(703a)를 포함하는 과정일 수 있다. 일 실시 예에 따르면, 제1 상태(701a)는 객체 A 및 객체 B가 서로 분리되어 떨어져있는 상태이고, 제2 상태(702a)는 객체 A 및 객체 B가 겹쳐져 있는 상태이고, 제3 상태(703a)는 겹쳐져 있던 객체 A 및 객체 B가 다시 분리된 상태로 이해될 수 있다.Referring to FIG. 7A , a process of overlapping and separating a plurality of objects may be a process including a
일 실시 예에 따르면, 제1 상태(701a)에서, 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-20' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고 제1 객체 이미지 세트에 포함되는 것으로 선택될 수 있다. 일 실시 예에서, 제1 상태(701a)에서, 'a-11' 객체 이미지, 'b-2' 객체 이미지, 및 'c-16' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고 제2 객체 이미지 세트에 포함되는 것으로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제1 객체 이미지 세트에 대응하는 객체는 객체 A인 것으로 설정할 수 있고, 상기 제2 객체 이미지 세트에 대응하는 객체는 객체 B인 것으로 설정할 수 있다.According to an embodiment, in the
일 실시 예에 따르면, 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 제2 객체 이미지 세트에 포함되는 객체 이미지들은, 제2 상태(702a)에서 지정된 범위 내에 모여있을 수 있고, 제3 상태(703a)에서 다시 재분리 될 수 있다.According to an embodiment, the object images included in the first object image set and the object images included in the second object image set may be clustered within a range specified in the
일 실시 예에 따르면, 제3 상태(703a)에서, 객체 이미지들 사이의 스위칭이 발생할 수 있다. 예를 들면, 도 7a에 도시된 바와 같이, 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-16' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고, 'a-11' 객체 이미지, 'b-2' 객체 이미지, 및 'c-20' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있다. 이 경우, 제3 카메라를 이용하여 획득된 이미지 데이터에서 인식된 'c-16' 객체 이미지 및 'c-20' 객체 이미지는 서로 스위칭 된 것으로 이해될 수 있다.According to an embodiment, in the
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트가 업데이트됨에 따라 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되었으므로, 객체 이미지 세트가 대응하는 객체(객체 X 및 객체 Y)를 재설정할 수 있다. 예를 들어, 전자 장치는 복수의 카메라들 각각의 우선순위에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 재설정할 수 있다. 이 경우, 객체 이미지 세트에 포함되는 적어도 하나의 객체 이미지가 인식되지 않는 것으로 변경되는 경우, 상기 적어도 하나의 객체 이미지에 대응하는 카메라의 우선순위는 나머지 카메라들의 우선순위보다 낮게 설정될 수 있다. 다른 예를 들어, 전자 장치는 과반의 객체 이미지가 대응하는 객체에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 재설정할 수 있다. 일 실시 예에서, 전자 장치는 상기 복수의 카메라들의 우선순위에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 설정하고, 상기 복수의 카메라들의 우선순위가 모두 동일할 경우에 한하여, 상기 과반의 객체 이미지가 대응하는 객체에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다.According to an embodiment, since the configuration of object images included in the object image set is changed as the object image set is updated, the electronic device may reset objects (object X and object Y) corresponding to the object image set. For example, the electronic device may reset the object to which the object image set corresponds based on the priority of each of the plurality of cameras. In this case, when at least one object image included in the object image set is changed to unrecognized, the priority of the camera corresponding to the at least one object image may be set lower than that of the remaining cameras. As another example, the electronic device may reset the object to which the object image set corresponds, based on the object to which the majority of object images correspond. In an embodiment, the electronic device sets an object corresponding to the object image set based on the priorities of the plurality of cameras, and only when the priorities of the plurality of cameras are all the same, the majority of the object images The object image set may set the corresponding object based on the corresponding object.
일 실시 예에 따르면, 도 7a에 도시된 과정에서 인식되었던 객체 이미지가 인식되지 않는 것으로 변경되는 상황은 발생하지 않았으므로, 복수의 카메라들 사이의 우선순위는 모두 동일한 것으로 판단될 수 있다. 일 실시 예에 따르면, 전자 장치는 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-16' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체 X에 대하여, 과반의 객체 이미지들('a-14' 객체 이미지 및 'b-7' 객체 이미지)이 대응하는 객체는 객체 A 이므로, 상기 객체 X는 객체 A인 것으로 설정할 수 있다. 다른 실시 예에 따르면, 전자 장치는 'a-11' 객체 이미지, 'b-2' 객체 이미지, 및 'c-20' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체 Y에 대하여, 과반의 객체 이미지들('a-11' 객체 이미지 및 'b-2' 객체 이미지)이 대응하는 객체는 객체 B 이므로, 상기 객체 Y는 객체 B인 것으로 설정할 수 있다.According to an embodiment, since the situation in which the object image recognized in the process shown in FIG. 7A is changed to unrecognized does not occur, it may be determined that the priorities among the plurality of cameras are all the same. According to an embodiment, the electronic device determines that, with respect to an object X to which an object image set including an 'a-14' object image, a 'b-7' object image, and an 'c-16' object image corresponds, the majority of objects Since the object to which the images ('a-14' object image and 'b-7' object image) correspond is object A, the object X may be set to be object A. According to another embodiment, in the electronic device, with respect to the object Y corresponding to the object image set including the 'a-11' object image, the 'b-2' object image, and the 'c-20' object image, the majority of objects Since the object to which the images ('a-11' object image and 'b-2' object image) correspond is object B, the object Y may be set as object B.
도 7b는 다른 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체의 식별 번호를 결정하는 방법을 나타낸다.7B illustrates a method of determining, by an electronic device, an identification number of an object while overlapping and separating a plurality of objects, according to another exemplary embodiment.
도 7b를 참조하면, 복수의 객체들이 겹쳐지고 분리되는 과정은 제1 상태(701b), 제2 상태(702b), 및 제3 상태(703b)를 포함하는 과정일 수 있다. 일 실시 예에 따르면, 제1 상태(701b)는 객체 A 및 객체 B가 서로 분리되어 떨어져있는 상태이고, 제2 상태(702b)는 객체 A 및 객체 B가 겹쳐져 있는 상태이고, 제3 상태(703b)는 겹쳐져 있던 객체 A 및 객체 B가 다시 분리된 상태로 이해될 수 있다.Referring to FIG. 7B , a process of overlapping and separating a plurality of objects may be a process including a
일 실시 예에 따르면, 제1 상태(701b)에서, 'a-14' 객체 이미지 및 'b-7' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고 제1 객체 이미지 세트에 포함되는 것으로 선택될 수 있다. 일 실시 예에서, 제1 상태(701b)에서, 'a-11' 객체 이미지 및 'b-2' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고 제2 객체 이미지 세트에 포함되는 것으로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제1 객체 이미지 세트에 대응하는 객체는 객체 A인 것으로 설정할 수 있고, 상기 제2 객체 이미지 세트에 대응하는 객체는 객체 B인 것으로 설정할 수 있다.According to an embodiment, in the
일 실시 예에 따르면, 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 제2 객체 이미지 세트에 포함되는 객체 이미지들은, 제2 상태(702b)에서 지정된 범위 내에 모여있을 수 있고, 제3 상태(703b)에서 다시 재분리 될 수 있다. 일 실시 예에서, 제2 상태(702b)에서 객체 A 및 객체 B는 겹쳐져 있는 상태이므로 제2 카메라를 이용하여 획득된 이미지 데이터에서는 'b-2' 객체 이미지는 인식되고 'b-7' 객체 이미지는 인식되지 않을 수 있다.According to an embodiment, the object images included in the first object image set and the object images included in the second object image set may be clustered within a range specified in the
일 실시 예에 따르면, 제3 상태(703b)에서, 객체 이미지들 사이의 스위칭이 발생할 수 있다. 예를 들면, 도 7a에 도시된 바와 같이, 'a-14' 객체 이미지 및 'b-2' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고, 'a-11' 객체 이미지 및 'b-7' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있다. 이 경우, 제2 카메라를 이용하여 획득된 이미지 데이터에서 인식된 'b-2' 객체 이미지 및 'b-7' 객체 이미지는 서로 스위칭 된 것으로 이해될 수 있다.According to an embodiment, in the
일 실시 예에 따르면, 전자 장치는 객체 이미지 세트가 업데이트됨에 따라 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되었으므로, 객체 이미지 세트가 대응하는 객체(객체 X 및 객체 Y)를 재설정할 수 있다. 예를 들어, 전자 장치는 복수의 카메라들 각각의 우선순위에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 재설정할 수 있다. 이 경우, 객체 이미지 세트에 포함되는 적어도 하나의 객체 이미지가 인식되지 않는 것으로 변경되는 경우, 상기 적어도 하나의 객체 이미지에 대응하는 카메라의 우선순위는 나머지 카메라들의 우선순위보다 낮게 설정될 수 있다. 다른 예를 들어, 전자 장치는 과반의 객체 이미지가 대응하는 객체에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 재설정할 수 있다. 일 실시 예에서, 전자 장치는 상기 복수의 카메라들의 우선순위에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 설정하고, 상기 복수의 카메라들의 우선순위가 모두 동일할 경우에 한하여, 상기 과반의 객체 이미지가 대응하는 객체에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다.According to an embodiment, since the configuration of object images included in the object image set is changed as the object image set is updated, the electronic device may reset objects (object X and object Y) corresponding to the object image set. For example, the electronic device may reset the object to which the object image set corresponds based on the priority of each of the plurality of cameras. In this case, when at least one object image included in the object image set is changed to unrecognized, the priority of the camera corresponding to the at least one object image may be set lower than that of the remaining cameras. As another example, the electronic device may reset the object to which the object image set corresponds, based on the object to which the majority of object images correspond. In an embodiment, the electronic device sets an object corresponding to the object image set based on the priorities of the plurality of cameras, and only when the priorities of the plurality of cameras are all the same, the majority of the object images The object image set may set the corresponding object based on the corresponding object.
일 실시 예에 따르면, 도 7b에 도시된 과정에서 'b-2' 객체 이미지가 제2 상태(702b)에서 인식되지 않는 상황이 발생하였으므로, 전자 장치는 'b-2' 객체 이미지에 대응하는 제2 카메라의 우선순위를 제1 카메라의 우선순위 보다 낮게 설정할 수 있다. 일 실시 예에 따르면, 전자 장치는 우선순위가 가장 높은 제1 카메라에 기초하여 객체 이미지 세트가 대응하는 객체를 설정할 수 있다. 예를 들어, 전자 장치는 'a-14' 객체 이미지 및 'b-2' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체 X에 대하여, 제1 카메라를 이용하여 획득된 이미지 데이터에서 인식된 'a-14' 객체 이미지가 대응하는 객체는 객체 A 이므로, 상기 객체 X는 객체 A인 것으로 설정할 수 있다. 다른 예를 들어, 전자 장치는 'a-11' 객체 이미지 및 'b-7' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체 Y에 대하여, 제1 카메라를 이용하여 획득된 이미지 데이터에서 인식된 'a-11' 객체 이미지가 대응하는 객체는 객체 B 이므로, 상기 객체 Y는 객체 B인 것으로 설정할 수 있다.According to an embodiment, in the process illustrated in FIG. 7B , a situation in which the 'b-2' object image is not recognized in the
도 8은 일 실시 예에 따른, 전자 장치가 복수의 카메라들 각각 및 인식된 객체 사이의 거리에 기초하여 인식된 객체의 위치를 결정하는 방법을 나타낸다.8 illustrates a method for an electronic device to determine a position of a recognized object based on a distance between each of a plurality of cameras and the recognized object, according to an embodiment.
도 8을 참조하면, 전자 장치는 제1 카메라(111)를 이용하여 제1 객체 이미지(810)를 인식하고, 제2 카메라(112)를 이용하여 제2 객체 이미지(820)를 인식하고, 제3 카메라(113)를 이용하여 제3 객체 이미지(830)를 인식할 수 있다. 일 실시 예에 따르면, 제1 객체 이미지(810), 제2 객체 이미지(820), 및 제3 객체 이미지(830)는 동일한 객체에 대응하는 객체 이미지들로 선택될 수 있고, 제1 객체 이미지(810) 세트에 포함되는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 제1 객체 이미지(810) 세트가 대응하는 객체는 도 8에 도시된 바와 같이 객체 A로 설정될 수 있다.Referring to FIG. 8 , the electronic device recognizes a
일 실시 예에 따르면, 전자 장치는 도 8에 도시된 바와 같이, 제1 객체 이미지(810), 제2 객체 이미지(820), 및 제3 객체 이미지(830)를 타겟 영역에 대한 단일 평면 상에 매핑할 수 있다. 일 실시 예에서, 제1 객체 이미지(810)의 위치는 제1 카메라(111)의 위치로부터 제1 거리(811)만큼 떨어져 있을 수 있고, 제2 객체 이미지(820)의 위치는 제2 카메라(112)의 위치로부터 제2 거리(821)만큼 떨어져 있을 수 있고, 제3 객체 이미지(830)의 위치는 제3 카메라(113)의 위치로부터 제3 거리(831)만큼 떨어져 있을 수 있다. 다양한 실시 예에서, 제2 거리(821)는 제1 거리(811)보다 길고, 제3 거리(831)는 제2 거리(821)보다 길 수 있으나, 제1 거리(811), 제2 거리(821), 및 제3 거리(831)의 길이 순서는 도 8에 도시된 바에 한정되지 않는다.According to an embodiment, as shown in FIG. 8 , the electronic device displays the
다양한 실시 예에 따르면, 객체 이미지의 위치에 대한 정확도는 각각의 객체 이미지가 대응하는 카메라와의 거리가 짧을수록 높을 수 있다. 예를 들어, 제1 거리(811)는 제2 거리(821)보다 짧으므로, 제1 객체 이미지(810)의 위치의 정확도는 제2 객체 이미지(820)의 위치의 정확도보다 높을 수 있다. 다른 예를 들어, 제2 거리(821)는 제3 거리(831)보다 짧으므로, 제2 객체 이미지(820)의 위치의 정확도는 제3 객체 이미지(830)의 위치의 정확도보다 높을 수 있다.According to various embodiments, the accuracy of the position of the object image may be higher as the distance between the respective object images and the corresponding camera is shorter. For example, since the
일 실시 예에 따르면, 전자 장치는 복수의 카메라들(111, 112, 113)을 이용하여 획득한 이미지 데이터들에서 각각의 객체 이미지가 떨어진 거리에 대한 정보를 획득할 수 있다. 예를 들면, 전자 장치는 각각의 이미지 데이터들에서 복수의 객체 이미지들을 인식하고, 상기 복수의 객체 이미지들 사이의 상대적 거리를 이용함으로써 각각의 객체 이미지가 카메라로부터 떨어진 거리를 획득할 수 있다.According to an embodiment, the electronic device may acquire information on a distance from which each object image is separated from image data acquired using the plurality of
일 실시 예에 따르면, 전자 장치는 객체 이미지들이 각각 대응하는 카메라로부터 떨어진 거리에 기초하여 객체 이미지들 각각에 대한 가중치를 결정할 수 있다. 예를 들어, 전자 장치는 객체 이미지가 카메라로부터 멀리 떨어져 있을수록 가중치를 낮게 결정할 수 있다. 다른 예를 들어, 전자 장치는 객체 이미지가 카메라로부터 가깝게 떨어져 있을수록 가중치를 높게 결정할 수 있다. 일 실시 예에서, 제1 거리(811)는 제2 거리(821)보다 짧으므로 제1 객체 이미지(810)에 대한 가중치는 제2 객체 이미지(820)에 대한 가중치보다 높게 결정될 수 있고, 제2 거리(821)는 제3 거리(831)보다 짧으므로 제2 객체 이미지(820)에 대한 가중치는 제3 객체 이미지(830)에 대한 가중치보다 높게 설정될 수 있다.According to an embodiment, the electronic device may determine a weight for each of the object images based on a distance from a camera to which the object images respectively correspond. For example, the electronic device may determine the weight to be lower as the object image is further away from the camera. As another example, the electronic device may determine the weight to be higher as the object image is further away from the camera. In an embodiment, since the
일 실시 예에 따르면, 전자 장치는 객체 A에 대응하는 객체 이미지들의 위치, 예컨대, 제1 객체 이미지(810)의 위치, 제2 객체 이미지(820)의 위치, 및 제3 객체 이미지(830)의 위치에 기초하여, 객체 A의 위치를 결정할 수 있다. 일 실시 예에 따르면, 전자 장치는 객체 A에 대응하는 객체 이미지들의 가중치, 예컨대, 제1 객체 이미지(810)의 가중치, 제2 객체 이미지(820)의 가중치, 및 제3 객체 이미지(830)의 가중치에 기초하여 객체 A의 위치를 결정할 수 있다. According to an embodiment, the electronic device determines the positions of object images corresponding to object A, for example, the position of the
일 실시 예에서, 전자 장치는 제1 객체 이미지(810)의 위치에 제1 가중치를 적용함으로써 제1 객체 이미지(810)의 조정 위치를 획득할 수 있고, 제2 객체 이미지(820)의 위치에 제2 가중치를 적용함으로써 제2 객체 이미지(820)의 조정 위치를 획득할 수 있고, 제3 객체 이미지(830)의 위치에 제3 가중치를 적용함으로써 제3 객체 이미지(830)의 조정 위치를 획득할 수 있다. 전자 장치는 제1 객체 이미지(810)의 조정 위치, 제2 객체 이미지(820)의 조정 위치, 및 제3 객체 이미지(830)의 조정 위치에 기초하여 객체 A의 위치를 결정할 수 있다. 예를 들어, 전자 장치는 제1 객체 이미지(810)의 조정 위치, 제2 객체 이미지(820)의 조정 위치, 및 제3 객체 이미지(830)의 조정 위치의 평균 위치를 객체 A의 위치로 결정할 수 있다.In an embodiment, the electronic device may acquire the adjusted position of the
도 9는 일 실시 예에 따른, 전자 장치의 블록도를 나타낸다.9 is a block diagram of an electronic device, according to an embodiment.
도 9를 참조하면, 전자 장치(900)는 카메라 모듈(910), 프로세서(920), 및 메모리(930)를 포함할 수 있다. 일 실시 예에 따르면, 카메라 모듈(910)은 복수의 카메라 예컨대, 제1 카메라(911), 제2 카메라(912), 및 제3 카메라(913)를 포함할 수 있다. 카메라 모듈(910)에 포함되는 카메라의 개수는 도 9에 도시된 바에 한정되지 않는다. 다양한 실시 예에 따르면, 전자 장치(900)의 구성은 도 9에 도시된 바에 한정되지 않으며, 도 9에 도시된 구성 중 일부를 생략하거나 도 9에 도시되지 않은 구성을 더 포함할 수도 있다. 예를 들어, 전자 장치(900)는 카메라 모듈(910)에 포함되는 복수의 카메라들(911, 912, 913) 중 일부를 생략할 수도 있고, 상기 생략된 카메라는 전자 장치(900) 외부의 다른 전자 장치(900)에 포함될 수 있다. 이 경우, 전자 장치(900)는 상기 다른 전자 장치(900)와 전기적으로 통신함으로써 상기 다른 전자 장치(900)에 포함되는 카메라로부터 이미지 데이터를 획득할 수 있다.Referring to FIG. 9 , the
일 실시 예에 따르면, 카메라 모듈(910)에 포함되는 제1 카메라(911), 제2 카메라(912), 및 제3 카메라(913)는 서로 상이한 위치에서 타겟 영역을 촬영할 수 있다. 예를 들어, 제1 카메라(911)는 상기 타겟 영역을 제1 위치에서 촬영할 수 있고, 제2 카메라(912)는 상기 타겟 영역을 제2 위치에서 촬영할 수 있고, 제3 카메라(913)는 상기 타겟 영역을 제3 위치에서 촬영할 수 있다. 일 실시 예에서, 상기 제1 위치, 상기 제2 위치, 및 상기 제3 위치는 상기 타겟 영역의 중심을 기준으로 지정된 각도 이상 떨어져 있을 수 있다. 예를 들어, 상기 제1 위치, 상기 타겟 영역의 중심, 상기 제2 위치가 이루는 각도는 상기 지정된 각도 이상일 수 있고, 상기 제2 위치, 상기 타겟 영역의 중심, 상기 제3 위치가 이루는 각도는 상기 지정된 각도 이상일 수 있고, 상기 제3 위치, 상기 타겟 영역의 중심, 상기 제1 위치가 이루는 각도는 상기 지정된 각도 이상일 수 있다. 다양한 실시 예에서, 카메라 모듈(910)에 포함되는 복수의 카메라들(911, 912, 913)에서 촬영됨으로써 획득된 이미지 데이터는 프로세서(920)로 전달될 수 있다.According to an embodiment, the first camera 911 , the
일 실시 예에 따르면, 프로세서(920)는 전자 장치(900)의 다른 구성 요소들과 전기적으로 연결됨으로써 다른 구성 요소들에 대한 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 다양한 실시 예에 따르면, 프로세서(920)는 CPU(central processing unit), AP(application processor), GPU(graphic processing unit), 또는 NPU(neural processing unit) 중 적어도 하나를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 프로세서(920)는 카메라 모듈(910)에서 전달된 복수의 이미지 데이터를 이용하여, 객체 이미지들을 인식하고, 인식된 객체 이미지들에 대한 처리를 실행할 수 있다. 예를 들어, 프로세서(920)는 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택할 수 있고, 상기 객체 이미지들이 대응하는 객체를 제1 객체로 설정할 수 있다. 프로세서(920)는 제1 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트함으로써 상기 제1 객체의 위치를 추적할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 프로세서(920)는 복수의 객체 이미지들에 대한 단일의 동일한 좌표계, 예컨대, 단일 평면에 대한 좌표계로의 매핑을 수행할 수도 있고, 지정된 조건을 만족하는 객체 이미지들에 대한 그룹화를 수행할 수도 있다. 일 실시 예에 따르면, 프로세서(920)는 객체 이미지들의 위치를 지정된 시간 간격에 따라 업데이트함으로써, 제1 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트할 수도 있다. 일 실시 예에 따르면, 프로세서(920)는 제1 객체 이미지 세트에 포함되는 객체 이미지들의 식별번호에 기초하여 제1 객체에 대응하는 제1 식별 번호 세트를 획득할 수도 있다. 일 실시 예에 따르면, 프로세서(920)는 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 제1 객체 이미지 세트가 대응하는 객체를 재설정할 수도 있다. 일 실시 예에 따르면, 프로세서(920)는 객체 이미지들의 위치에 기초하여 객체 이미지들의 가중치를 결정할 수도 있고, 객체 이미지들의 위치 및 상기 결정된 가중치에 기초하여 객체 이미지들이 대응하는 객체의 위치를 결정할 수도 있다.According to an embodiment, the
일 실시 예에 따르면, 메모리(930)는 전자 장치(900)의 적어도 하나의 구성요소에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어 및 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(930)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 메모리(930)는 프로세서(920)에서 실행됨으로써 프로세서(920)가 실행하는 동작을 수행하기 위한 프로그램들을 저장할 수 있으며, 상기 프로그램들의 실행에 따라 생성되거나 산출되는 데이터를 저장할 수도 있다. 예를 들어, 메모리(930)는 프로세서(920)가 획득한 이미지 데이터, 이미지 데이터에서 인식된 객체 이미지에 대한 정보, 상기 정보를 이용하여 산출되는 다양한 데이터를 저장할 수 있다.According to an embodiment, the
본 문서에 개시되는 일 실시 예에 따른 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법은, 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하는 단계, 상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하는 단계, 상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 단계, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하는 단계, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하는 단계, 및 상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하는 단계를 포함하는 것을 특징으로 할 수 있다.A method of tracking the location of an arbitrary object included in a target area according to an embodiment disclosed in this document uses a plurality of cameras to acquire a plurality of image data captured at different locations with respect to the target area recognizing object images corresponding to one or more objects included in the target region from the plurality of image data, and first recognizing object images determined to correspond to the same object among the recognized object images. selecting as an object image set, setting an object to which the first object image set corresponds to a first object, and determining the position of the first object based on the positions of object images included in the first object image set Determining, and storing the object images included in the first object image set and time information related to the object images.
일 실시 예에 따르면, 상기 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 상기 단계는, 상기 복수의 이미지 데이터들에서 인식된 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑하는 단계 및 상기 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서, 서로 상이한 카메라를 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들을 상기 동일한 객체에 대응하는 것으로 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.According to an embodiment, the selecting of the object images determined to correspond to the same object as a first object image set includes selecting the object images recognized from the plurality of image data in a single coordinate system ( coordinate system) and object images recognized from image data acquired using different cameras from among the object images whose mutual distance is smaller than a specified threshold value among the mapped object images, the same object It may be characterized in that it comprises the step of determining to correspond to.
일 실시 예에 따르면, 상기 매핑된 객체 이미지들 중 상호 간의 거리가 상기 지정된 임계 값보다 작은 상기 객체 이미지들 중에서, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서 인식된 객체 이미지들이 둘 이상인 경우, 상기 제1 카메라를 제외한 나머지 카메라들을 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들은 상기 동일한 객체에 대응하는 것으로 결정될 수 있다.According to an embodiment, when there are two or more object images recognized from the first image data obtained using the first camera among the object images whose mutual distance is smaller than the specified threshold value among the mapped object images , object images recognized from image data obtained by using the remaining cameras except for the first camera may be determined to correspond to the same object.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지가 상기 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들로부터 상기 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 제외하도록 구성이 변경될 수 있다.According to an embodiment, after selecting at least a first object image as the first object image set, the first object image is a distance smaller than the specified threshold value from the remaining object images included in the first object image set When it does not exist within the area range of , the configuration of the first object image set may be changed to exclude the first object image.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트가 상기 제1 객체 이미지를 제외하도록 구성이 변경된 이후에, 상기 나머지 객체 이미지들과의 거리가 상기 지정된 임계 값 보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제2 객체 이미지를 포함하도록 구성이 변경될 수 있다.According to an embodiment, after the configuration of the first object image set is changed to exclude the first object image, a second object image having a distance from the remaining object images smaller than the specified threshold value is set to the first object image. When recognized from the first image data corresponding to the object image, the configuration of the first object image set may be changed to include the second object image.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들과의 거리가 상기 지정된 임계 값보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 포함하고 상기 제2 객체 이미지를 제외하도록 구성이 변경될 수 있다.According to an embodiment, after selecting at least a first object image as the first object image set, a second object image having a distance from object images included in the first object image set is smaller than the specified threshold value When recognized from the first image data corresponding to the first object image, the configuration of the first object image set may be changed to include the first object image and exclude the second object image.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 복수의 카메라들 중 우선순위가 가장 높은 카메라를 이용하여 획득된 이미지 데이터에서 인식된 객체 이미지가 대응하는 객체로 재설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed, the object corresponding to the first object image set uses the highest priority camera among the plurality of cameras. An object image recognized in the acquired image data may be reset to a corresponding object.
일 실시 예에서, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 적어도 일부가 제외되도록 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제외된 적어도 일부의 객체 이미지에 대응하는 카메라의 우선순위는 상기 복수의 카메라들 중 나머지 카메라의 우선순위보다 낮게 설정될 수 있다.In one embodiment, when the configuration of the object images included in the first object image set is changed so that at least some of the object images included in the first object image set are changed, the excluded at least some object images The priority of the corresponding camera may be set lower than the priority of the remaining cameras among the plurality of cameras.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지가 대응하는 객체로 재설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed, the object to which the first object image set corresponds is a majority of the object images included in the first object image set The object image may be reset to the corresponding object.
일 실시 예에 따르면, 상기 방법은, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대응하는 식별 번호들에 기초하여, 상기 제1 객체에 대응하는 제1 식별 번호 세트를 획득하는 단계를 더 포함할 수 있다. According to an embodiment, the method includes, based on identification numbers corresponding to each of the object images included in the first object image set, obtaining a first set of identification numbers corresponding to the first object may include more.
일 실시 예에 따르면, 상기 제1 객체의 위치를 결정하는 상기 단계는, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계 상에 매핑하는 단계, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대하여, 대응하는 카메라로부터의 거리를 각각 획득하는 단계, 상기 획득된 거리에 기초하여, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대한 가중치를 결정하는 단계, 및 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 상기 결정된 가중치에 기초하여, 상기 단일 좌표계 상에서 상기 제1 객체의 위치를 결정하는 단계를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment, the determining of the position of the first object may include mapping object images included in the first object image set on a single coordinate system with respect to the target area, the first object image set Obtaining a distance from a corresponding camera for each of the object images included in , and determining a weight for each of the object images included in the first object image set based on the obtained distance , and based on the object images included in the first object image set and the determined weight, determining the position of the first object on the single coordinate system may further include.
본 문서에 개시되는 일 실시 예에 따른 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 전자 장치는, 서로 상이한 위치에서 상기 타겟 영역을 촬영하기 위한 복수의 카메라들 및 상기 복수의 카메라들 각각과 전기적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 상기 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하고, 상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하고, 상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하고, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하고, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하고, 및 상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하도록 설정되는 것을 특징으로 할 수 있다.An electronic device for tracking the location of an arbitrary object included in a target area according to an embodiment disclosed in this document includes a plurality of cameras for photographing the target area at different positions and each of the plurality of cameras; a processor electrically connected, wherein the processor acquires a plurality of image data photographed at different positions with respect to the target area by using the plurality of cameras, and from the plurality of image data, the target Recognize object images corresponding to one or more objects included in an area, select object images determined to correspond to the same object among the recognized object images as a first object image set, and the first object image set is set a corresponding object as a first object, determine a position of the first object based on positions of object images included in the first object image set, and the object image included in the first object image set and time information related to the object images may be set to be stored.
일 실시 예에 따르면, 상기 프로세서는, 상기 복수의 이미지 데이터들에서 인식된 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑하고, 상기 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서, 서로 상이한 카메라를 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들을 상기 동일한 객체에 대응하는 것으로 결정하도록 더 설정되는 것을 특징으로 할 수 있다.According to an embodiment, the processor maps object images recognized from the plurality of image data on a single coordinate system with respect to the target area, and a distance between the mapped object images is designated. Among the object images smaller than the threshold value, it may be further configured to determine object images recognized from image data obtained using different cameras as corresponding to the same object.
일 실시 예에 따르면, 상기 매핑된 객체 이미지들 중 상호 간의 거리가 상기 지정된 임계 값보다 작은 상기 객체 이미지들 중에서, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서 인식된 객체 이미지들이 둘 이상인 경우, 상기 제1 카메라를 제외한 나머지 카메라들을 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들은 상기 동일한 객체에 대응하는 것으로 결정될 수 있다.According to an embodiment, when there are two or more object images recognized from the first image data obtained using the first camera among the object images whose mutual distance is smaller than the specified threshold value among the mapped object images , object images recognized from image data obtained by using the remaining cameras except for the first camera may be determined to correspond to the same object.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지가 상기 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들로부터 상기 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 제외하도록 구성이 변경될 수 있다.According to an embodiment, after selecting at least a first object image as the first object image set, the first object image is a distance smaller than the specified threshold value from the remaining object images included in the first object image set When it does not exist within the area range of , the configuration of the first object image set may be changed to exclude the first object image.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트가 상기 제1 객체 이미지를 제외하도록 구성이 변경된 이후에, 상기 나머지 객체 이미지들과의 거리가 상기 지정된 임계 값 보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제2 객체 이미지를 포함하도록 구성이 변경될 수 있다.According to an embodiment, after the configuration of the first object image set is changed to exclude the first object image, a second object image having a distance from the remaining object images smaller than the specified threshold value is set to the first object image. When recognized from the first image data corresponding to the object image, the configuration of the first object image set may be changed to include the second object image.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들과의 거리가 상기 지정된 임계 값보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 포함하고 상기 제2 객체 이미지를 제외하도록 구성이 변경될 수 있다.According to an embodiment, after selecting at least a first object image as the first object image set, a second object image having a distance from object images included in the first object image set is smaller than the specified threshold value When recognized from the first image data corresponding to the first object image, the configuration of the first object image set may be changed to include the first object image and exclude the second object image.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 복수의 카메라들 중 우선순위가 가장 높은 카메라를 이용하여 획득된 이미지 데이터에서 인식된 객체 이미지가 대응하는 객체로 재설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed, the object corresponding to the first object image set uses the highest priority camera among the plurality of cameras. An object image recognized in the acquired image data may be reset to a corresponding object.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 적어도 일부가 제외되도록 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제외된 적어도 일부의 객체 이미지에 대응하는 카메라의 우선순위는 상기 복수의 카메라들 중 나머지 카메라의 우선순위보다 낮게 설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed such that at least some of the object images included in the first object image set are changed, the excluded at least some object images A priority of a camera corresponding to . may be set lower than a priority of the remaining cameras among the plurality of cameras.
일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지가 대응하는 객체로 재설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed, the object to which the first object image set corresponds is a majority of the object images included in the first object image set The object image may be reset to the corresponding object.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.The various embodiments of this document and the terms used therein are not intended to limit the technology described in this document to a specific embodiment, but it should be understood to include various modifications, equivalents, and/or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like components. The singular expression may include the plural expression unless the context clearly dictates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C” or “at least one of A, B and/or C” refer to all of the items listed together. Possible combinations may be included. Expressions such as “first”, “second”, “first” or “second” can modify the corresponding components regardless of order or importance, and are only used to distinguish one component from another. The components are not limited. When an (eg, first) component is referred to as being “connected (functionally or communicatively)” or “connected” to another (eg, second) component, that component is It may be directly connected to the component or may be connected through another component (eg, a third component).
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.As used herein, the term “module” includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit. A module may be an integrally formed part or a minimum unit or a part of one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리 또는 외장 메모리)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치를 포함할 수 있다. 상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present document may be implemented as software including instructions stored in a machine-readable storage media (eg, internal memory or external memory) readable by a machine (eg, a computer). . The device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include the electronic device according to the disclosed embodiments. When the instruction is executed by the processor, the processor may directly or use other components under the control of the processor to perform a function corresponding to the instruction. Instructions may include code generated or executed by a compiler or interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' means that the storage medium does not include a signal and is tangible, and does not distinguish that data is semi-permanently or temporarily stored in the storage medium.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an embodiment, the method according to various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play Store™). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily generated in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components (eg, a module or a program) according to various embodiments may be composed of a singular or a plurality of entities, and some sub-components of the aforementioned sub-components may be omitted, or other sub-components may be various. It may be further included in the embodiment. Alternatively or additionally, some components (eg, a module or a program) may be integrated into a single entity to perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be sequentially, parallel, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added. can
Claims (20)
복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하는 단계;
상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하는 단계;
상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 단계;
상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하는 단계;
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하는 단계; 및
상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하는 단계;를 포함하는 방법.A method for tracking the position of an arbitrary object included in a target area, the method comprising:
acquiring a plurality of image data captured at different positions with respect to the target area by using a plurality of cameras;
recognizing object images corresponding to one or more objects included in the target area from the plurality of image data;
selecting, as a first object image set, object images determined to correspond to the same object among the recognized object images;
setting an object to which the first object image set corresponds as a first object;
determining a position of the first object based on positions of object images included in the first object image set; and
and storing the object images included in the first object image set and time information related to the object images.
상기 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 상기 단계는,
상기 복수의 이미지 데이터들에서 인식된 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑하는 단계; 및
상기 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서, 서로 상이한 카메라를 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들을 상기 동일한 객체에 대응하는 것으로 결정하는 단계;를 포함하는, 방법.The method of claim 1,
The step of selecting object images determined to correspond to the same object as a first object image set comprises:
mapping object images recognized from the plurality of image data onto a single coordinate system for the target area; and
Determining object images recognized from image data obtained using different cameras as corresponding to the same object from among object images whose mutual distance is smaller than a specified threshold value among the mapped object images; Including method.
상기 매핑된 객체 이미지들 중 상호 간의 거리가 상기 지정된 임계 값보다 작은 상기 객체 이미지들 중에서, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서 인식된 객체 이미지들이 둘 이상인 경우, 상기 제1 카메라를 제외한 나머지 카메라들을 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들은 상기 동일한 객체에 대응하는 것으로 결정되는, 방법.3. The method of claim 2,
If there are two or more object images recognized in the first image data obtained using the first camera among the object images whose mutual distance is smaller than the specified threshold among the mapped object images, the first camera The method, wherein object images recognized from image data acquired using the remaining cameras are determined to correspond to the same object.
상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지가 상기 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들로부터 상기 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 제외하도록 구성이 변경되는, 방법.3. The method of claim 2,
After selecting at least a first object image as the first object image set, the first object image does not exist within an area range of a distance smaller than the specified threshold value from the remaining object images included in the first object image set. if not, the configuration of the first object image set is changed to exclude the first object image.
상기 제1 객체 이미지 세트가 상기 제1 객체 이미지를 제외하도록 구성이 변경된 이후에, 상기 나머지 객체 이미지들과의 거리가 상기 지정된 임계 값 보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제2 객체 이미지를 포함하도록 구성이 변경되는, 방법.5. The method of claim 4,
After the configuration of the first object image set is changed to exclude the first object image, a second object image whose distance from the remaining object images is smaller than the specified threshold is a second object image corresponding to the first object image. If recognized from one image data, the configuration is changed such that the first object image set includes the second object image.
상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들과의 거리가 상기 지정된 임계 값보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 포함하고 상기 제2 객체 이미지를 제외하도록 구성이 변경되는, 방법.3. The method of claim 2,
After selecting at least a first object image as the first object image set, a second object image having a distance from object images included in the first object image set smaller than the specified threshold is added to the first object image. If recognized from corresponding first image data, the configuration is changed such that the first object image set includes the first object image and excludes the second object image.
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 복수의 카메라들 중 우선순위가 가장 높은 카메라를 이용하여 획득된 이미지 데이터에서 인식된 객체 이미지가 대응하는 객체로 재설정되는, 방법.The method of claim 1,
When the configuration of object images included in the first object image set is changed, the object corresponding to the first object image set is recognized from image data obtained by using the camera having the highest priority among the plurality of cameras The method, wherein the object image is reset to the corresponding object.
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 적어도 일부가 제외되도록 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제외된 적어도 일부의 객체 이미지에 대응하는 카메라의 우선순위는 상기 복수의 카메라들 중 나머지 카메라의 우선순위보다 낮게 설정되는, 방법.8. The method of claim 7,
When the configuration of object images included in the first object image set is changed so that at least some of the object images included in the first object image set are excluded, priority of the camera corresponding to the excluded at least some object images The method of claim 1, wherein the priority is set lower than the priority of the remaining cameras among the plurality of cameras.
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지가 대응하는 객체로 재설정되는, 방법.The method of claim 1,
When the configuration of object images included in the first object image set is changed, the object to which the first object image set corresponds is an object to which a majority of object images included in the first object image set correspond to to be reset to, the method.
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대응하는 식별 번호들에 기초하여, 상기 제1 객체에 대응하는 제1 식별 번호 세트를 획득하는 단계; 를 더 포함하는, 방법.The method of claim 1,
obtaining a first set of identification numbers corresponding to the first object based on identification numbers corresponding to each of the object images included in the first object image set; A method further comprising:
상기 제1 객체의 위치를 결정하는 상기 단계는,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계 상에 매핑하는 단계;
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대하여, 대응하는 카메라로부터의 거리를 각각 획득하는 단계;
상기 획득된 거리에 기초하여, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대한 가중치를 결정하는 단계; 및
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 상기 결정된 가중치에 기초하여, 상기 단일 좌표계 상에서 상기 제1 객체의 위치를 결정하는 단계;를 포함하는, 방법.The method of claim 1,
The step of determining the position of the first object,
mapping object images included in the first object image set on a single coordinate system for the target area;
obtaining a distance from a corresponding camera for each of the object images included in the first object image set;
determining a weight for each of the object images included in the first object image set based on the obtained distance; and
determining the position of the first object on the single coordinate system based on the determined weight and the object images included in the first object image set.
서로 상이한 위치에서 상기 타겟 영역을 촬영하기 위한 복수의 카메라들; 및
상기 복수의 카메라들 각각과 전기적으로 연결되는 프로세서;를 포함하고,
상기 프로세서는,
상기 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하고,
상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하고,
상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하고,
상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하고,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하고, 및
상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하도록 설정되는, 전자 장치.An electronic device for tracking a position of an arbitrary object included in a target area, the electronic device comprising:
a plurality of cameras for photographing the target area at different positions; and
a processor electrically connected to each of the plurality of cameras;
The processor is
Using the plurality of cameras to obtain a plurality of image data photographed at different positions with respect to the target area,
Recognizing object images corresponding to one or more objects included in the target area from the plurality of image data,
selecting, as a first object image set, object images determined to correspond to the same object among the recognized object images;
Set the object to which the first object image set corresponds to the first object,
determining a position of the first object based on positions of object images included in the first object image set; and
The electronic device is configured to store the object images included in the first object image set and time information related to the object images.
상기 프로세서는,
상기 복수의 이미지 데이터들에서 인식된 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑하고,
상기 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서, 서로 상이한 카메라를 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들을 상기 동일한 객체에 대응하는 것으로 결정하도록 더 설정되는, 전자 장치.13. The method of claim 12,
The processor is
Map the object images recognized from the plurality of image data on a single coordinate system for the target area,
Among the object images whose mutual distance is smaller than a specified threshold value among the mapped object images, it is further set to determine object images recognized from image data obtained using different cameras as corresponding to the same object , electronic devices.
상기 매핑된 객체 이미지들 중 상호 간의 거리가 상기 지정된 임계 값보다 작은 상기 객체 이미지들 중에서, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서 인식된 객체 이미지들이 둘 이상인 경우, 상기 제1 카메라를 제외한 나머지 카메라들을 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들은 상기 동일한 객체에 대응하는 것으로 결정되는, 전자 장치.14. The method of claim 13,
If there are two or more object images recognized in the first image data obtained using the first camera among the object images whose mutual distance is smaller than the specified threshold among the mapped object images, the first camera The electronic device, wherein object images recognized from image data acquired using the remaining cameras are determined to correspond to the same object.
상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지가 상기 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들로부터 상기 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 제외하도록 구성이 변경되는, 전자 장치.14. The method of claim 13,
After selecting at least a first object image as the first object image set, the first object image does not exist within an area range of a distance smaller than the specified threshold value from the remaining object images included in the first object image set. otherwise, the configuration of the first object image set is changed to exclude the first object image.
상기 제1 객체 이미지 세트가 상기 제1 객체 이미지를 제외하도록 구성이 변경된 이후에, 상기 나머지 객체 이미지들과의 거리가 상기 지정된 임계 값 보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제2 객체 이미지를 포함하도록 구성이 변경되는, 전자 장치.16. The method of claim 15,
After the configuration of the first object image set is changed to exclude the first object image, a second object image whose distance from the remaining object images is smaller than the specified threshold is a second object image corresponding to the first object image. When recognized from the first image data, the configuration of the first object image set is changed to include the second object image.
상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들과의 거리가 상기 지정된 임계 값보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 포함하고 상기 제2 객체 이미지를 제외하도록 구성이 변경되는, 전자 장치.14. The method of claim 13,
After selecting at least a first object image as the first object image set, a second object image having a distance from object images included in the first object image set smaller than the specified threshold is added to the first object image. When recognized from the corresponding first image data, the configuration is changed such that the first object image set includes the first object image and excludes the second object image.
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 복수의 카메라들 중 우선순위가 가장 높은 카메라를 이용하여 획득된 이미지 데이터에서 인식된 객체 이미지가 대응하는 객체로 재설정되는, 전자 장치.13. The method of claim 12,
When the configuration of object images included in the first object image set is changed, the object corresponding to the first object image set is recognized from image data obtained by using the camera having the highest priority among the plurality of cameras The electronic device, wherein the object image is reset to the corresponding object.
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 적어도 일부가 제외되도록 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제외된 적어도 일부의 객체 이미지에 대응하는 카메라의 우선순위는 상기 복수의 카메라들 중 나머지 카메라의 우선순위보다 낮게 설정되는, 전자 장치.19. The method of claim 18,
When the configuration of object images included in the first object image set is changed so that at least some of the object images included in the first object image set are excluded, priority of the camera corresponding to the excluded at least some object images The priority is set lower than the priority of the remaining cameras among the plurality of cameras.
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지가 대응하는 객체로 재설정되는, 전자 장치.13. The method of claim 12,
When the configuration of object images included in the first object image set is changed, the object to which the first object image set corresponds is an object to which a majority of object images included in the first object image set correspond to to be reset to, the electronic device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210025125A KR20220121105A (en) | 2021-02-24 | 2021-02-24 | A method for tracking a location of an object in a tarrget area and an electronic device performing the same |
PCT/KR2022/002145 WO2022182040A1 (en) | 2021-02-24 | 2022-02-14 | Method for tracking location of object within target area, and electronic device for performing same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210025125A KR20220121105A (en) | 2021-02-24 | 2021-02-24 | A method for tracking a location of an object in a tarrget area and an electronic device performing the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220121105A true KR20220121105A (en) | 2022-08-31 |
Family
ID=83049391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210025125A KR20220121105A (en) | 2021-02-24 | 2021-02-24 | A method for tracking a location of an object in a tarrget area and an electronic device performing the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220121105A (en) |
WO (1) | WO2022182040A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113888761A (en) * | 2017-05-19 | 2022-01-04 | 谷歌有限责任公司 | Efficient image analysis using environmental sensor data |
KR102150847B1 (en) * | 2017-08-22 | 2020-09-02 | 미쓰비시덴키 가부시키가이샤 | Image processing apparatus and image processing method |
JP7022040B2 (en) * | 2018-09-26 | 2022-02-17 | Kddi株式会社 | Object identification device, method and program |
KR102172239B1 (en) * | 2019-02-18 | 2020-10-30 | 세종대학교산학협력단 | Method and system for abnormal situation monitoring based on video |
KR102317628B1 (en) * | 2019-07-04 | 2021-10-26 | (주)넷비젼텔레콤 | Method and system for recognizing situation based on event tagging |
-
2021
- 2021-02-24 KR KR1020210025125A patent/KR20220121105A/en unknown
-
2022
- 2022-02-14 WO PCT/KR2022/002145 patent/WO2022182040A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022182040A1 (en) | 2022-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7004017B2 (en) | Object tracking system, object tracking method, program | |
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
JP5905540B2 (en) | Method for providing a descriptor as at least one feature of an image and method for matching features | |
CN107431786B (en) | Image processing apparatus, image processing system, and image processing method | |
US9684928B2 (en) | Foot tracking | |
CN107633526B (en) | Image tracking point acquisition method and device and storage medium | |
US11017588B2 (en) | Image processing apparatus that generates a virtual view image from multiple images captured from different directions and method controlling the same | |
US10957068B2 (en) | Information processing apparatus and method of controlling the same | |
US20190089923A1 (en) | Video processing apparatus for displaying a plurality of video images in superimposed manner and method thereof | |
JP5631086B2 (en) | Information processing apparatus, control method therefor, and program | |
US10861185B2 (en) | Information processing apparatus and method of controlling the same | |
EP3502958B1 (en) | Object recognition processing apparatus, object recognition processing method, and program | |
JPWO2013073167A1 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US11776213B2 (en) | Pose generation apparatus, generation method, and storage medium | |
US11823394B2 (en) | Information processing apparatus and method for aligning captured image and object | |
CN108629799B (en) | Method and equipment for realizing augmented reality | |
CN112882576B (en) | AR interaction method and device, electronic equipment and storage medium | |
CN113362441A (en) | Three-dimensional reconstruction method and device, computer equipment and storage medium | |
EP2946360B1 (en) | Foot tracking | |
US11189053B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium | |
JP6077425B2 (en) | Video management apparatus and program | |
CN112991441A (en) | Camera positioning method and device, electronic equipment and storage medium | |
KR20220121105A (en) | A method for tracking a location of an object in a tarrget area and an electronic device performing the same | |
CN114882073A (en) | Target tracking method and apparatus, medium, and computer device | |
JP6717769B2 (en) | Information processing device and program |