KR20220121105A - A method for tracking a location of an object in a tarrget area and an electronic device performing the same - Google Patents

A method for tracking a location of an object in a tarrget area and an electronic device performing the same Download PDF

Info

Publication number
KR20220121105A
KR20220121105A KR1020210025125A KR20210025125A KR20220121105A KR 20220121105 A KR20220121105 A KR 20220121105A KR 1020210025125 A KR1020210025125 A KR 1020210025125A KR 20210025125 A KR20210025125 A KR 20210025125A KR 20220121105 A KR20220121105 A KR 20220121105A
Authority
KR
South Korea
Prior art keywords
object image
image
images
image set
electronic device
Prior art date
Application number
KR1020210025125A
Other languages
Korean (ko)
Inventor
정재욱
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210025125A priority Critical patent/KR20220121105A/en
Priority to PCT/KR2022/002145 priority patent/WO2022182040A1/en
Publication of KR20220121105A publication Critical patent/KR20220121105A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Crystals, And After-Treatments Of Crystals (AREA)
  • Image Analysis (AREA)

Abstract

A method for tracking the location of a random object included in a target area according to one embodiment of the present invention may be characterized by comprising: a step of using a plurality of cameras to acquire a plurality of image data filmed at locations different from each other with respect to the target area; a step of recognizing object images corresponding to at least one object included in the target area in the plurality of image data; a step of selecting object images determined to correspond to the identical object among the recognized object images as a first object image set; a step of setting an object which corresponds to the first object image set as a first object; a step of determining the location of the first object based on the location of the object images included in the first object image set; and a step of storing object images included in the first object image set and time information related to the object images. Therefore, the location of objects may be more precisely tracked.

Description

타겟 영역 내의 객체의 위치를 추적하는 방법 및 이를 수행하는 전자 장치{A METHOD FOR TRACKING A LOCATION OF AN OBJECT IN A TARRGET AREA AND AN ELECTRONIC DEVICE PERFORMING THE SAME}A METHOD FOR TRACKING A LOCATION OF AN OBJECT IN A TARRGET AREA AND AN ELECTRONIC DEVICE PERFORMING THE SAME

본 문서에서 개시되는 실시 예들은 타겟 영역 내의 객체의 위치를 추적하는 방법 및 이를 수행하는 전자 장치에 관한 것이다.Embodiments disclosed in this document relate to a method of tracking a position of an object in a target area and an electronic device for performing the same.

영상 인식 기술의 발달에 따라, 카메라 등을 이용하여 획득한 이미지 데이터들로부터 특정 객체를 인식하고, 사용자에게 상기 인식된 객체와 관련된 다양한 정보를 제공해주는 발명들이 등장하고 있다. 예를 들면, 전자 장치는 카메라를 이용하여 바코드 또는 QR 코드를 인식하고 인식된 코드에 저장된 정보를 사용자에게 제공할 수 있다. 다른 예를 들면, 증강 현실을 제공하기 위한 전자 장치는 사용자가 바라보는 방향에 존재하는 객체를 인식하고, 인식된 객체와 관련된 정보를 증강 현실 화면으로 사용자에게 제공할 수도 있다.With the development of image recognition technology, inventions for recognizing a specific object from image data acquired using a camera or the like and providing various information related to the recognized object to a user are emerging. For example, the electronic device may recognize a barcode or QR code using a camera and provide information stored in the recognized code to the user. As another example, the electronic device for providing augmented reality may recognize an object existing in a direction in which the user looks, and provide information related to the recognized object to the user as an augmented reality screen.

움직이지 않거나, 움직임의 정도가 비교적 작은 객체를 인식하는 것과는 달리, 지정된 수준 이상의 속도로 움직이는 객체를 인식하고, 객체의 위치를 추적하는 것은, 추가적인 전자 장치, 예컨대, 상기 움직이는 객체에 부착된 센서 등을 이용하지 않는 이상 기술적인 어려움이 있다. 또한, 복수의 객체들에 서로 구별되는 센서를 부착하는 경우에는 상기 어려움을 해결할 수도 있지만, 추가적인 비용이 발생하고, 인식하는 대상이 센서를 부착한 객체에 제한된다는 문제가 발생할 수 있다. Unlike recognizing an object that does not move or has a relatively small degree of motion, recognizing an object moving at a speed greater than or equal to a specified level and tracking the position of the object may include an additional electronic device, such as a sensor attached to the moving object, etc. There are technical difficulties unless you use . In addition, although the above difficulties may be solved in the case of attaching a sensor that is distinguished from each other to a plurality of objects, an additional cost may occur, and a problem that a recognized object is limited to an object to which the sensor is attached may occur.

또한, 센서와 같은 추가적인 전자 장치 없이 카메라를 이용한 영상 인식 기술을 통해 객체를 인식하려는 경우에, 단일의 객체가 아니라, 복수의 객체가 서로 겹쳐지고 다시 떨어지는 과정이 반복된다면 인식된 객체의 동일성을 유지하는 것이 매우 곤란할 수 있다. 예를 들어, 카메라를 이용하여 복수의 움직이는 객체를 인식하는 경우, 카메라의 화면 상에서 복수의 객체들이 겹쳐지는 순간에는 전자 장치가 복수의 객체들을 단일의 객체로 인식하게 될 수도 있고, 복수의 객체들이 겹쳐진 이후에 다시 분리되는 순간에는 인식하고 있던 객체의 식별 번호가 서로 뒤바뀌는 문제가 발생할 수도 있다.In addition, in the case of recognizing an object through image recognition technology using a camera without an additional electronic device such as a sensor, the identity of the recognized object is maintained if the process of overlapping and falling again is repeated instead of a single object. It can be very difficult to do. For example, when recognizing a plurality of moving objects using a camera, the electronic device may recognize the plurality of objects as a single object when the plurality of objects overlap on the screen of the camera, and the plurality of objects At the moment of separation again after overlapping, there may be a problem that the identification numbers of recognized objects are reversed.

본 문서에 개시되는 일 실시 예에 따른 방법은, 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하는 단계, 상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하는 단계, 상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 단계, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하는 단계, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하는 단계 및 상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하는 단계를 포함하는 것을 특징으로 할 수 있다.The method according to an embodiment disclosed in this document includes using a plurality of cameras to acquire a plurality of image data photographed at different positions with respect to the target area, from the plurality of image data, the target Recognizing object images corresponding to one or more objects included in an area, selecting object images determined to correspond to the same object from among the recognized object images as a first object image set, the first object image Setting an object to which a set corresponds to a first object, determining a position of the first object based on positions of object images included in the first object image set, and included in the first object image set and storing the object images and time information related to the object images.

또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 서로 상이한 위치에서 상기 타겟 영역을 촬영하기 위한 복수의 카메라들 및 상기 복수의 카메라들 각각과 전기적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 상기 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하고, 상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하고, 상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하고, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하고, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하고, 및 상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하도록 설정되는 것을 특징으로 할 수 있다.In addition, the electronic device according to an embodiment disclosed in this document includes a plurality of cameras for photographing the target area at different positions and a processor electrically connected to each of the plurality of cameras, the processor obtains a plurality of image data photographed at different positions with respect to the target area by using the plurality of cameras, and in the plurality of image data, an object corresponding to one or more objects included in the target area Recognizing images, selecting object images determined to correspond to the same object among the recognized object images as a first object image set, and setting an object to which the first object image set corresponds to a first object, Determine the position of the first object based on the positions of the object images included in the first object image set, and time information related to the object images and the object images included in the first object image set It may be characterized in that it is set to store.

본 문서에 개시되는 실시 예들에 따르면, 센서 등의 추가적인 전자 장치를 이용하지 않고 영상 인식 기술만을 이용하여 타겟 영역 내의 객체의 위치를 추적할 수 있다. 또한, 복수의 객체들이 서로 겹쳐지고 분리되는 과정에서도 인식하는 객체의 동일성을 정확하게 유지할 수 있으며, 인식된 객체들의 위치를 보다 정확하게 추적할 수 있다.According to the embodiments disclosed in this document, the position of the object in the target area may be tracked using only image recognition technology without using an additional electronic device such as a sensor. In addition, even in a process in which a plurality of objects are overlapped and separated from each other, the identity of the recognized objects may be accurately maintained, and the positions of the recognized objects may be more accurately tracked.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition, various effects directly or indirectly identified through this document may be provided.

도 1a는 일 실시 예에 따른, 전자 장치가 복수의 카메라들을 이용하여 타겟 영역의 객체들의 위치를 추적하는 방법을 나타낸다.
도 1b는 일 실시 예에 따른, 전자 장치가 복수의 카메라들을 이용하여 획득한 복수의 이미지 데이터들로부터 객체 이미지들을 획득하고, 객체 이미지들을 그룹화하는 과정을 나타낸다.
도 2는 일 실시 예에 따른, 전자 장치가 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법을 나타내는 흐름도이다.
도 3은 일 실시 예에 따른, 전자 장치가 복수의 이미지 데이터들에서 인식된 객체 이미지들을 제1 객체에 대응하는 제1 객체 이미지 세트로 그룹화하는 방법을 나타내는 흐름도이다.
도 4는 다양한 실시 예에 따른, 전자 장치가 복수의 객체 이미지들을 그룹화하는 방법을 나타낸다.
도 5는 일 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체 이미지들을 각각의 객체에 대응하는 객체 이미지 세트로 그룹화하는 방법을 나타낸다.
도 6은 다른 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체 이미지들을 각각의 객체에 대응하는 객체 이미지 세트로 그룹화하는 방법을 나타낸다.
도 7a는 일 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체의 식별 번호를 결정하는 방법을 나타낸다.
도 7b는 다른 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체의 식별 번호를 결정하는 방법을 나타낸다.
도 8은 일 실시 예에 따른, 전자 장치가 복수의 카메라들 각각 및 인식된 객체 사이의 거리에 기초하여 인식된 객체의 위치를 결정하는 방법을 나타낸다.
도 9는 일 실시 예에 따른, 전자 장치의 블록도를 나타낸다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
1A illustrates a method for an electronic device to track positions of objects in a target area using a plurality of cameras, according to an exemplary embodiment.
FIG. 1B illustrates a process in which an electronic device acquires object images from a plurality of image data acquired using a plurality of cameras and groups the object images, according to an exemplary embodiment.
2 is a flowchart illustrating a method for an electronic device to track a location of an arbitrary object included in a target area, according to an embodiment.
3 is a flowchart illustrating a method for an electronic device to group object images recognized from a plurality of image data into a first object image set corresponding to a first object, according to an exemplary embodiment.
4 illustrates a method for an electronic device to group a plurality of object images, according to various embodiments of the present disclosure.
5 illustrates a method of grouping, by an electronic device, object images into an object image set corresponding to each object in a process in which a plurality of objects are overlapped and separated, according to an embodiment.
6 is a diagram illustrating a method in which an electronic device groups object images into an object image set corresponding to each object while a plurality of objects are overlapped and separated, according to another exemplary embodiment.
7A illustrates a method for an electronic device to determine an identification number of an object in a process in which a plurality of objects are overlapped and separated, according to an embodiment.
7B illustrates a method of determining, by an electronic device, an identification number of an object while overlapping and separating a plurality of objects, according to another exemplary embodiment.
8 illustrates a method for an electronic device to determine a position of a recognized object based on a distance between each of a plurality of cameras and the recognized object, according to an embodiment.
9 is a block diagram of an electronic device, according to an embodiment.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.

도 1a는 일 실시 예에 따른, 전자 장치가 복수의 카메라들을 이용하여 타겟 영역의 객체들의 위치를 추적하는 방법을 나타낸다.1A illustrates a method for an electronic device to track positions of objects in a target area using a plurality of cameras, according to an exemplary embodiment.

도 1a를 참조하면, 전자 장치(미도시)는 복수의 카메라들(111, 112, 113)을 이용하여 타겟 영역(10)에 대하여 서로 상이한 위치에서 촬영을 할 수 있고, 복수의 이미지 데이터들을 획득할 수 있다. 예를 들어, 제1 카메라(111)는 타겟 영역(10)을 제1 위치에서 촬영함으로써 이미지 데이터를 획득하고, 제2 카메라(112)는 타겟 영역(10)을 제2 위치에서 촬영함으로써 이미지 데이터를 획득하고, 제3 카메라(113)는 타겟 영역(10)을 제3 위치에서 촬영함으로써 이미지 데이터를 획득할 수 있다. 다양한 실시 예에서, 타겟 영역(10)은 객체를 인식하기 위한 관심 영역으로 이해될 수 있다. 예를 들어, 타겟 영역(10)은 야구장의 그라운드(ground), 농구장의 농구 코트(court), 축구장의 피치(pitch) 등을 의미하는 것으로 이해될 수 있다.Referring to FIG. 1A , an electronic device (not shown) may photograph a target area 10 at different positions using a plurality of cameras 111 , 112 , and 113 , and acquire a plurality of image data. can do. For example, the first camera 111 acquires image data by photographing the target area 10 at a first location, and the second camera 112 captures the target area 10 at a second location to obtain image data , and the third camera 113 may acquire image data by photographing the target area 10 at a third location. In various embodiments, the target region 10 may be understood as a region of interest for recognizing an object. For example, the target area 10 may be understood to mean a ground of a baseball field, a basketball court of a basketball court, a pitch of a soccer field, and the like.

일 실시 예에서, 타겟 영역(10)이 도 1a에 도시된 것처럼 야구장의 그라운드인 경우, 제1 카메라(111)는 3루 베이스 쪽에서 그라운드를 촬영할 수 있고, 제2 카메라(112)는 1루 베이스 쪽에서 그라운드를 촬영할 수 있고, 제3 카메라(113)는 홈 베이스 쪽에서 그라운드를 촬영할 수 있다. 다른 실시 예에서, 타겟 영역(10)이 농구장의 농구 코트 또는 축구장의 피치인 경우, 제1 카메라(111)는 제1 골대 쪽에서 촬영할 수 있고, 제2 카메라(112)는 제2 골대 쪽에서 촬영할 수 있고, 제3 카메라(113)는 제1 골대 및 제2 골대 사이의 중앙선 부근에서 촬영할 수 있다. 다양한 실시 예에서, 복수의 카메라(111, 112, 113)의 개수 또는 위치는 도 1a에 도시된 바에 한정되지 않으며, 타겟 영역(10)의 속성, 타겟 영역(10)에 포함되는 복수의 객체들의 속성 등에 기초하여 다양하게 결정될 수 있다.In one embodiment, when the target area 10 is the ground of a baseball field as shown in FIG. 1A , the first camera 111 may photograph the ground from the third base side, and the second camera 112 is the first base base. The ground may be photographed from the side, and the third camera 113 may photograph the ground from the home base side. In another embodiment, when the target area 10 is a basketball court or a soccer field pitch of a basketball court, the first camera 111 may be photographed from the side of the first goalpost, and the second camera 112 may be photographed from the side of the second goalpost. And, the third camera 113 may be photographed in the vicinity of the center line between the first goalpost and the second goalpost. In various embodiments, the number or positions of the plurality of cameras 111 , 112 , and 113 are not limited to those shown in FIG. 1A , and the properties of the target area 10 and the plurality of objects included in the target area 10 are It may be variously determined based on an attribute or the like.

일 실시 예에 따르면, 복수의 카메라들(111, 112, 113) 각각의 위치는 복수의 카메라들(111, 112, 113)이 타겟 영역(10)의 중심을 기준으로 이루는 각도가 지정된 각도 이상이 되도록 결정될 수 있다. 예를 들면, 제1 카메라(111), 타겟 영역(10)의 중심, 및 제2 카메라(112)가 이루는 각도는 상기 지정된 각도 이상일 수 있다. 다른 예를 들면, 제2 카메라(112), 타겟 영역(10)의 중심, 및 제3 카메라(113)가 이루는 각도는 상기 지정된 각도 이상일 수 있다. 다양한 실시 예에서, 복수의 카메라들(111, 112, 113)의 위치가 복수의 카메라들(111, 112, 113)이 타겟 영역(10)의 중심을 기준으로 이루는 각도가 지정된 각도 이상이 되도록 결정되면, 전자 장치는 타겟 영역(10)에 포함되는 복수의 객체들을 보다 정확하게 인식할 수 있다. 예를 들어, 제1 카메라(111)를 이용하여 획득한 제1 이미지 데이터에서 제1 객체 및 제2 객체는 서로 겹쳐 있는 것으로 보일 수 있지만, 타겟 영역(10)의 중심을 기준으로 제1 카메라(111)와 지정된 각도 이상의 각도를 이루는 제2 카메라(112)에서 획득한 제2 이미지 데이터 또는 제3 카메라(113)에서 획득한 제3 이미지 데이터에서 제1 객체 및 제2 객체는 서로 겹쳐 있지 않은 것으로 보일 수 있다. 전자 장치는 제1 카메라(111), 제2 카메라(112), 및 제3 카메라(113)를 이용하여 적어도 하나의 이미지 데이터에서 겹쳐 있지 않은 제1 객체 및 제2 객체를 모두 인식할 수 있다.According to an embodiment, the position of each of the plurality of cameras 111 , 112 , and 113 is greater than or equal to a specified angle at which an angle between the plurality of cameras 111 , 112 , and 113 with respect to the center of the target area 10 is specified. can be decided to be For example, the angle formed by the first camera 111 , the center of the target area 10 , and the second camera 112 may be equal to or greater than the specified angle. For another example, the angle formed by the second camera 112 , the center of the target area 10 , and the third camera 113 may be equal to or greater than the specified angle. In various embodiments, the positions of the plurality of cameras 111 , 112 , and 113 are determined such that an angle between the plurality of cameras 111 , 112 , and 113 with respect to the center of the target area 10 is greater than or equal to a specified angle Then, the electronic device may more accurately recognize a plurality of objects included in the target area 10 . For example, in the first image data obtained using the first camera 111 , the first object and the second object may appear to overlap each other, but based on the center of the target area 10 , the first camera ( 111) and the second image data obtained from the second camera 112 forming an angle greater than or equal to the specified angle, or the third image data obtained from the third camera 113, the first object and the second object do not overlap each other. can be seen The electronic device may use the first camera 111 , the second camera 112 , and the third camera 113 to recognize both the non-overlapping first and second objects in at least one image data.

일 실시 예에 따르면, 복수의 카메라들(111, 112, 113)을 이용하여 촬영된 복수의 이미지 데이터들은 각각 프로세서(120)로 전달될 수 있고, 프로세서(120)는 상기 복수의 이미지 데이터들을 처리함으로써, 타겟 영역(10)에 포함되는 복수의 객체들의 위치를 나타내는 이미지(40)를 획득할 수 있다. 이미지(40)에 포함되는 객체들을 복수의 이미지 데이터들로부터 인식된 객체 이미지들에 기초하여 이미지(40) 상에 표시될 수 있다. 다양한 실시 예에서, 객체 이미지는 실제 객체에 대응하는 이미지로써, 이미지 데이터에서 인식되는 객체에 대한 이미지로 이해될 수 있다.According to an embodiment, a plurality of image data photographed using the plurality of cameras 111 , 112 , and 113 may be respectively transmitted to the processor 120 , and the processor 120 processes the plurality of image data. By doing so, the image 40 indicating the positions of the plurality of objects included in the target area 10 may be obtained. Objects included in the image 40 may be displayed on the image 40 based on object images recognized from a plurality of image data. In various embodiments, the object image is an image corresponding to an actual object, and may be understood as an image of an object recognized in image data.

일 실시 예에서, 각각의 이미지 데이터들에서 인식되는 객체 이미지들 중 동일한 객체에 대응하는 것으로 판단되는 객체 이미지들은 서로 그룹화(또는 클러스터링(clustering))됨으로써, 이미지(40) 상의 하나의 객체로 표시될 수 있다. 예컨대, 제1 카메라(111)로부터 획득된 제1 이미지 데이터에서 인식된 제1 객체 이미지, 제2 카메라(112)로부터 획득된 제2 이미지 데이터에서 인식된 제2 객체 이미지, 및 제3 카메라(113)로부터 획득된 제3 이미지 데이터에서 인식된 제3 객체 이미지는 모두 동일한 객체에 대응하는 것으로 판단될 수 있고, 서로 그룹화 됨으로써 이미지 상에서 제1 객체로 표시될 수 있다.In one embodiment, the object images determined to correspond to the same object among the object images recognized in the respective image data are grouped (or clustered) with each other to be displayed as one object on the image 40 . can For example, a first object image recognized from the first image data acquired from the first camera 111 , a second object image recognized from the second image data acquired from the second camera 112 , and the third camera 113 . ), the third object images recognized from the third image data may all be determined to correspond to the same object, and may be grouped together and displayed as the first object on the image.

도 1b는 일 실시 예에 따른, 전자 장치가 복수의 카메라들을 이용하여 획득한 복수의 이미지 데이터들로부터 객체 이미지들을 획득하고, 객체 이미지들을 그룹화하는 과정을 나타낸다.FIG. 1B illustrates a process in which an electronic device acquires object images from a plurality of image data acquired using a plurality of cameras and groups the object images, according to an exemplary embodiment.

도 1b를 참조하면, 제1 이미지 데이터(11), 제2 이미지 데이터(12), 및 제3 이미지 데이터(13)는 각각 도 1a에 도시된 제1 카메라(111), 제2 카메라(112), 및 제3 카메라(113)로부터 획득된 이미지 데이터일 수 있다. 일 실시 예에 따르면, 전자 장치는 복수의 이미지 데이터들(11, 12, 13) 각각에서, 타겟 영역에 포함되는 객체에 대응하는 객체 이미지들을 인식할 수 있다. 예를 들면, 전자 장치는 제1 이미지 데이터(11), 제2 이미지 데이터(12), 및 제3 이미지 데이터(13) 각각에서, 객체, 예컨대, 심판 및 선수에 대응하는 객체 이미지를 인식할 수 있다. Referring to FIG. 1B , the first image data 11 , the second image data 12 , and the third image data 13 are the first camera 111 and the second camera 112 shown in FIG. 1A , respectively. , and image data obtained from the third camera 113 . According to an embodiment, the electronic device may recognize object images corresponding to the object included in the target area from each of the plurality of image data 11 , 12 , and 13 . For example, the electronic device may recognize an object image corresponding to an object, for example, a referee and a player, from each of the first image data 11 , the second image data 12 , and the third image data 13 . have.

일 실시 예에 따르면, 복수의 이미지 데이터들(11, 12, 13)은 각각 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑될 수 있다. 예를 들어, 상기 단일 좌표계는 2차원 평면에 대한 단일 좌표계 또는 3차원 공간에 대한 단일 좌표계일 수 있다. 본 문서에서는 설명의 편의상 상기 복수의 이미지 데이터들(11, 12, 13)은 2차원 평면에 대한 단일 좌표계 상에 매핑되는 것으로 설명될 수 있으나, 이에 한정되는 것은 아니며, 3차원 공간에 대한 단일 좌표계 상에 매핑될 수도 있다. 일 실시 예에서, 타겟 영역에 대한 상기 단일 좌표계는 단일 평면일 수 있고, 상기 단일 평면은 도 1b에 도시된 매핑 이미지들(21, 22, 23)과 같이, 타겟 영역을 상공에서 바라본 평면에 대응할 수 있다. 다양한 실시 예에서, 상기 단일 평면은 도 1b에 도시된 바에 한정되지 않고, 다양한 각도에서 타겟 영역을 바라본 평면들 중 하나일 수도 있다. 일 실시 예에서, 제1 이미지 데이터(11)는 단일 평면 상의 제1 매핑 이미지(21)에 매핑될 수 있으며, 제2 이미지 데이터(12)는 단일 평면 상의 제2 매핑 이미지(22)에 매핑될 수 있으며, 제3 이미지 데이터(13)는 단일 평면 상의 제3 매핑 이미지(23)에 매핑될 수 있다.According to an embodiment, each of the plurality of image data 11 , 12 , and 13 may be mapped on a single coordinate system for a target area. For example, the single coordinate system may be a single coordinate system for a two-dimensional plane or a single coordinate system for a three-dimensional space. In this document, for convenience of description, the plurality of image data 11 , 12 , and 13 may be described as being mapped on a single coordinate system with respect to a two-dimensional plane, but is not limited thereto, and a single coordinate system with respect to a three-dimensional space. may be mapped onto In an embodiment, the single coordinate system for the target area may be a single plane, and the single plane may correspond to a plane viewed from above the target area, such as the mapping images 21 , 22 and 23 shown in FIG. 1B . can In various embodiments, the single plane is not limited to that illustrated in FIG. 1B , and may be one of planes viewed from various angles of the target area. In an embodiment, the first image data 11 may be mapped to a first mapping image 21 on a single plane, and the second image data 12 may be mapped to a second mapping image 22 on a single plane. Also, the third image data 13 may be mapped to the third mapping image 23 on a single plane.

다양한 실시 예에서, 전자 장치가 복수의 이미지 데이터들(11, 12, 13) 각각을 단일 평면 상의 매핑 이미지에 매핑하면, 서로 상이한 이미지 데이터에서 인식된 객체 이미지들을 하나의 평면 상에 표시할 수 있다. 예를 들면, 제1 매핑 이미지(21), 제2 매핑 이미지(22), 및 제3 매핑 이미지(23)는 동일한 평면을 나타내는 이미지들이므로, 전자 장치는 제1 매핑 이미지(21)에 포함되는 객체 이미지, 제2 매핑 이미지(22)에 포함되는 객체 이미지, 및 제3 매핑 이미지(23)에 포함되는 객체 이미지 모두를 단일의 결합 매핑 이미지(30)에 표시할 수 있다.In various embodiments, if the electronic device maps each of the plurality of image data 11 , 12 , and 13 to a mapping image on a single plane, object images recognized from different image data may be displayed on one plane. . For example, since the first mapping image 21 , the second mapping image 22 , and the third mapping image 23 are images representing the same plane, the electronic device is included in the first mapping image 21 . All of the object image, the object image included in the second mapping image 22 , and the object image included in the third mapping image 23 may be displayed in a single combined mapping image 30 .

일 실시 예에 따르면, 전자 장치는 결합 매핑 이미지(30) 상에서 동일한 객체에 대응하는 것으로 판단되는 객체 이미지들을 선택하고, 상기 선택된 객체 이미지들을 객체 이미지 세트로 그룹화할 수 있다. 예를 들면, 전자 장치는 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작고 서로 상이한 이미지 데이터로부터 인식된 객체 이미지들을 동일한 객체에 대응하는 객체 이미지들로 판단하고, 상기 동일한 객체에 대응하는 것으로 판단된 객체 이미지들을 선택함으로써 객체 이미지 세트로 그룹화할 수 있다.According to an embodiment, the electronic device may select object images determined to correspond to the same object on the joint mapping image 30 , and group the selected object images into an object image set. For example, the electronic device determines object images recognized from image data having a mutual distance among the object images smaller than a specified threshold value as object images corresponding to the same object, and determines that they correspond to the same object. Object images can be grouped into a set of object images by selecting them.

일 실시 예에 따르면, 전자 장치는 제1 이미지 데이터(11)로부터 인식되고 결합 매핑 이미지(30)에 표시된 제1 객체 이미지, 제2 이미지 데이터(12)로부터 인식되고 결합 매핑 이미지(30)에 표시된 제2 객체 이미지, 및 제3 이미지 데이터(13)로부터 인식되고 결합 매핑 이미지(30)에 표시된 제3 객체 이미지가 상호 간에 지정된 임계 값 보다 작은 거리만큼 떨어져 있다면, 상기 제1 객체 이미지, 상기 제2 객체 이미지, 및 상기 제3 객체 이미지를 동일한 객체에 대응하는 객체 이미지들로 판단할 수 있다. 전자 장치는 상기 제1 객체 이미지, 상기 제2 객체 이미지, 상기 제3 객체 이미지를 제1 객체 이미지 세트로 그룹화할 수 있고, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정할 수 있다. 일 실시 예에서, 전자 장치는 결합 매핑 이미지(30) 상에서 복수의 객체 이미지들을 객체 이미지 세트로 그룹화하고, 상기 객체 이미지 세트에 대응하는 객체의 위치를 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 결정할 수 있으며, 도 1a에 도시된 이미지(40)상에 표시할 수 있다.According to an embodiment, the electronic device recognizes a first object image recognized from the first image data 11 and displayed in the joint mapping image 30 , and is recognized from the second image data 12 and displayed in the joint mapping image 30 . If the second object image and the third object image recognized from the third image data 13 and displayed in the joint mapping image 30 are spaced apart from each other by a distance less than a specified threshold value, the first object image, the second The object image and the third object image may be determined as object images corresponding to the same object. The electronic device may group the first object image, the second object image, and the third object image into a first object image set, and set an object corresponding to the first object image set as the first object . In an embodiment, the electronic device groups a plurality of object images into an object image set on the joint mapping image 30 , and determines the position of the object corresponding to the object image set based on the position of the object images included in the object image set. can be determined, and can be displayed on the image 40 shown in FIG. 1A.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트에 포함되는 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장할 수 있다. 상기 객체 이미지들과 관련된 시간 정보는 예컨대, 객체 이미지들이 인식된 또는 획득된 시간에 대한 정보일 수 있다. 다양한 실시 예에 따르면, 전자 장치는 지정된 시간 간격에 따라 또는 사용자 입력 등의 이벤트 발생에 따라 이미지 데이터들을 획득하고 획득된 이미지 데이터들로부터 객체 이미지들을 인식할 수 있다. 전자 장치는 객체 이미지 및 객체 이미지와 관련된 시간 정보를 저장함으로써, 특정 시각에서의 제1 객체 이미지 세트의 구성을 획득할 수 있다. According to an embodiment, the electronic device may store object images included in an object image set and time information related to the object images. The time information related to the object images may be, for example, information about a time at which the object images were recognized or acquired. According to various embodiments of the present disclosure, the electronic device may acquire image data according to a specified time interval or occurrence of an event, such as a user input, and recognize object images from the acquired image data. The electronic device may acquire the configuration of the first object image set at a specific time by storing the object image and time information related to the object image.

일 실시 예에 따르면, 전자 장치는 지정된 시간 간격에 따라 또는 사용자 입력 등의 이벤트 발생에 따라 획득한 객체 이미지들에 기초하여, 객체 이미지 세트의 구성, 즉, 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트할 수 있다. 다양한 실시 예에서, 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트하는 것은 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 것과 동일 또는 유사하게 이해될 수 있다. 일 실시 예에 따르면, 전자 장치는 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트 함으로써 객체 이미지 세트에 대응하는 객체의 위치를 추적할 수 있다. 예를 들어, 전자 장치는 각각의 객체에 대응하는 객체 이미지 세트 및 상기 객체 이미지 세트에 포함되는 객체 이미지들을 지정된 시간 간격으로 업데이트할 수 있다. 예컨대, 전자 장치는 제1 객체에 대응하는 제1 객체 이미지 세트에 포함되는 제1 객체 이미지, 제2 객체 이미지, 및 제3 객체 이미지를 지정된 시간 간격으로 인식함으로써, 상기 제1 객체 이미지의 위치, 상기 제2 객체 이미지의 위치, 및 상기 제3 객체 이미지의 위치를 업데이트할 수 있다. 상기 지정된 시간 간격에 따라 인식된 상기 제1 객체 이미지, 상기 제2 객체 이미지, 및 상기 제3 객체 이미지의 위치가 변경됨에 따라, 전자 장치는 상기 제1 객체의 위치를 변경시킬 수 있고, 추적할 수 있다.According to an embodiment, the electronic device updates the configuration of the object image set, that is, the object images included in the object image set, based on the object images acquired according to a specified time interval or according to the occurrence of an event such as a user input. can do. In various embodiments, updating the object images included in the object image set may be understood to be the same or similar to changing the configuration of the object images included in the object image set. According to an embodiment, the electronic device may track the position of the object corresponding to the object image set by updating the object images included in the object image set. For example, the electronic device may update an object image set corresponding to each object and object images included in the object image set at a specified time interval. For example, the electronic device recognizes the first object image, the second object image, and the third object image included in the first object image set corresponding to the first object at a specified time interval to determine the position of the first object image, A position of the second object image and a position of the third object image may be updated. As the positions of the recognized first object image, the second object image, and the third object image are changed according to the specified time interval, the electronic device may change the position of the first object, and can

일 실시 예에 따르면, 전자 장치는 복수의 이미지 데이터들(11, 12, 13)로부터 인식된 객체 이미지들에 대하여 각각의 식별 번호를 부여할 수 있다. 전자 장치는 상기 식별 번호에 기초하여 객체 이미지들을 구분할 수 있다. 일 실시 예에서, 식별 번호는 대응하는 객체 이미지에 대응하는 카메라 종류에 대한 정보를 포함할 수도 있다. 이를 통해, 전자 장치는 객체 이미지의 식별 번호에 기초하여, 객체 이미지가 어떤 카메라에 대응하는지를 결정할 수 있다. According to an embodiment, the electronic device may assign an identification number to each of the object images recognized from the plurality of image data 11 , 12 , and 13 . The electronic device may classify object images based on the identification number. In an embodiment, the identification number may include information on a camera type corresponding to a corresponding object image. Through this, the electronic device may determine which camera the object image corresponds to, based on the identification number of the object image.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대응하는 식별 번호들에 기초하여, 객체 이미지 세트에 대응하는 식별 번호 세트를 획득할 수도 있다. 상기 식별 번호 세트는 상기 객체 이미지 세트에 대응하는 객체에 대응할 수 있다. 일 실시 예에 따르면, 전자 장치는 상기 식별 번호 세트에 포함되는 식별 번호들을 저장할 수 있고, 상기 식별 번호들과 함께 식별 번호들에 대응하는 객체 이미지들과 관련된 시간 정보를 함께 저장할 수 있다. 일 실시 예에서, 상기 식별 번호 세트는 객체 이미지 세트에 포함되는 객체 이미지가 업데이트 됨에 기초하여 업데이트될 수 있다. 예를 들어, 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 어느 하나가 제외되는 경우, 제1 객체 이미지 세트에 대응하는 제1 식별 번호 세트는 상기 제외된 객체 이미지에 대응하는 식별 번호를 제외하도록 업데이트될 수 있다.According to an embodiment, the electronic device may obtain an identification number set corresponding to the object image set based on identification numbers corresponding to each of the object images included in the object image set. The set of identification numbers may correspond to an object corresponding to the set of object images. According to an embodiment, the electronic device may store identification numbers included in the identification number set, and store time information related to object images corresponding to the identification numbers together with the identification numbers. In an embodiment, the identification number set may be updated based on an object image included in the object image set being updated. For example, when any one of the object images included in the first object image set is excluded, the first identification number set corresponding to the first object image set excludes the identification number corresponding to the excluded object image set may be updated.

이하, 다양한 실시 예에 따른, 전자 장치에서 복수의 카메라들을 이용하여 타겟 영역에 포함되는 객체의 위치를 추적하는 방법 및 상기 전자 장치에 대해 구체적으로 설명하도록 한다.Hereinafter, a method for tracking a position of an object included in a target area using a plurality of cameras in an electronic device and an electronic device according to various embodiments will be described in detail.

도 2는 일 실시 예에 따른, 전자 장치가 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a method for an electronic device to track a location of an arbitrary object included in a target area, according to an embodiment.

도 2를 참조하면, 전자 장치가 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법(200)은 단계 201 내지 211을 포함할 수 있다. 다양한 실시 예에 따르면, 단계 201 내지 211은 도 9에 도시된 전자 장치(900) 또는 프로세서(920)(또는 도 1a의 프로세서(120))에 의해 수행되는 것으로 이해할 수 있다. 다양한 실시 예에서, 전자 장치가 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법(200)은 도 2에 도시된 바에 한정되지 않으며, 도 2에 도시된 단계 중 하나 이상의 단계를 생략하거나, 도 2에 도시되지 않은 하나 이상의 단계를 더 포함할 수도 있다.Referring to FIG. 2 , the method 200 for the electronic device to track the location of an arbitrary object included in a target area may include steps 201 to 211 . According to various embodiments, it may be understood that steps 201 to 211 are performed by the electronic device 900 or the processor 920 shown in FIG. 9 (or the processor 120 of FIG. 1A ). In various embodiments, the method 200 for the electronic device to track the location of an arbitrary object included in the target area is not limited to that illustrated in FIG. 2 , and one or more of the steps illustrated in FIG. 2 may be omitted, or It may further include one or more steps not shown in FIG. 2 .

단계 201에서, 전자 장치는 복수의 카메라들을 이용하여, 복수의 이미지 데이터들을 획득할 수 있다. 상기 복수의 이미지 데이터들은 타겟 영역에 대한 이미지 데이터일 수 있으며, 복수의 카메라들은 타겟 영역에 대한 서로 상이한 위치에서 타겟 영역을 촬영할 수 있다.In operation 201, the electronic device may acquire a plurality of image data using a plurality of cameras. The plurality of image data may be image data of the target area, and the plurality of cameras may photograph the target area at different positions with respect to the target area.

단계 203에서, 전자 장치는 상기 단계 201에서 획득한 복수의 이미지 데이터들에서, 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식할 수 있다. 예를 들면, 전자 장치는 제1 카메라를 이용하여 획득한 제1 이미지 데이터에서, 제1 선수에 대응하는 제1 객체 이미지를 인식할 수 있다. 다른 예를 들면, 전자 장치는 제2 카메라를 이용하여 획득한 제2 이미지 데이터에서, 상기 제1 선수에 대응하는 제2 객체 이미지를 인식할 수 있고, 제3 카메라를 이용하여 획득한 제3 이미지 데이터에서 상기 제1 선수에 대응하는 제3 객체 이미지를 인식할 수 있다. 다양한 실시 예에서, 전자 장치는 상기 복수의 이미지 데이터에서 상기 제1 선수와 상이한 제2 선수 또는 제1 심판에 대응하는 객체 이미지들을 인식할 수도 있다.In operation 203 , the electronic device may recognize object images corresponding to one or more objects included in the target area from the plurality of image data acquired in operation 201 . For example, the electronic device may recognize the first object image corresponding to the first player from the first image data acquired using the first camera. As another example, the electronic device may recognize a second object image corresponding to the first player from the second image data acquired using the second camera, and a third image acquired using the third camera A third object image corresponding to the first player may be recognized from the data. In various embodiments, the electronic device may recognize object images corresponding to a second player different from the first player or a first referee from the plurality of image data.

단계 205에서, 전자 장치는 상기 단계 203에서 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택할 수 있다. 예를 들면, 전자 장치는 상기 인식된 객체 이미지들 중 단일 좌표계, 예컨대, 단일 평면에 대한 좌표계 상에서 지정된 임계 값 보다 작은 거리만큼 떨어지고, 서로 상이한 이미지 데이터로부터 인식된 객체 이미지들을 동일한 객체에 대응하는 객체 이미지들로 선택할 수 있고, 상기 선택한 객체 이미지들을 제1 객체 이미지 세트로 그룹화할 수 있다.In operation 205, the electronic device may select object images determined to correspond to the same object among the object images recognized in operation 203 as the first object image set. For example, the electronic device separates object images recognized from different image data by a distance smaller than a specified threshold value on a single coordinate system, for example, on a coordinate system for a single plane among the recognized object images, and sets the object corresponding to the same object. Images may be selected, and the selected object images may be grouped into a first object image set.

단계 207에서, 전자 장치는 상기 단계 205에서 그룹화된 제1 객체 이미지 세트에 대응하는 객체를 제1 객체로 설정할 수 있다. 예를 들어, 전자 장치는 상기 단계 203에서 설명된 상기 제1 선수에 대응하는 상기 제1 객체 이미지, 상기 제2 객체 이미지, 및 상기 제3 객체 이미지가 모두 동일한 객체에 대응한다는 사실을 비로소 인식하고, 상기 동일한 객체를 제1 객체로 설정함으로써 상기 제1 선수를 상기 제1 객체로서 인식할 수 있다.In operation 207, the electronic device may set an object corresponding to the first object image set grouped in operation 205 as the first object. For example, the electronic device finally recognizes the fact that the first object image, the second object image, and the third object image corresponding to the first player described in step 203 all correspond to the same object, , it is possible to recognize the first player as the first object by setting the same object as the first object.

단계 209에서, 전자 장치는 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 제1 객체의 위치를 결정할 수 있다. 예를 들어, 제1 객체 이미지 세트는 제1 객체 이미지, 제2 객체 이미지, 및 제3 객체 이미지를 포함할 수 있고, 전자 장치는 각각의 객체 이미지의 위치 및 각각의 객체 이미지에 대한 가중치에 기초하여 제1 객체의 위치를 결정할 수 있다.In operation 209, the electronic device may determine the position of the first object based on positions of object images included in the first object image set. For example, the first object image set may include a first object image, a second object image, and a third object image, and the electronic device is configured to determine a position of each object image and a weight for each object image. to determine the position of the first object.

단계 211에서, 전자 장치는 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장할 수 있다. 상기 객체 이미지들과 관련된 시간 정보는 예컨대, 객체 이미지들이 인식된 또는 획득된 시간에 대한 정보일 수 있다. 전자 장치는 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 객체 이미지들과 관련된 시간 정보를 저장함으로써, 특정 시각에서의 제1 객체 이미지 세트의 구성을 획득할 수 있다. 전자 장치는 상기 시간 정보에 기초하여, 특정 시각에서의 제1 객체 이미지 세트 및 특정 시각에서의 제1 객체의 위치를 획득할 수 있다.In operation 211, the electronic device may store object images included in the first object image set and time information related to the object images. The time information related to the object images may be, for example, information about a time at which the object images were recognized or acquired. The electronic device may acquire the configuration of the first object image set at a specific time by storing object images included in the first object image set and time information related to the object images. Based on the time information, the electronic device may acquire a first object image set at a specific time and a location of the first object at a specific time.

일 실시 예에 따르면, 전자 장치는 지정된 시간 간격에 따라 또는 사용자 입력 등의 이벤트 발생에 따라 획득한 객체 이미지들에 기초하여, 객체 이미지 세트의 구성, 즉, 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트할 수도 있다. 다양한 실시 예에서, 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트하는 것은 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 것과 동일 또는 유사하게 이해될 수 있다. 전자 장치는 제1 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트함으로써, 제1 객체의 위치를 추적할 수 있다. 예를 들어, 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각의 위치는, 제1 객체의 위치가 변경됨에 따라, 변경될 수 있다. 전자 장치는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각의 변경되는 위치에 기초하여, 제1 객체의 변경되는 위치를 추적할 수 있다. 다른 예를 들어, 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성 중 적어도 일부는 변경될 수 있다. 예컨대, 적어도 일부의 객체 이미지는 제1 객체 이미지 세트에서 제외될 수도 있고, 새로운 객체 이미지가 제1 객체 이미지 세트에 포함될 수도 있다. 전자 장치는 상기 제1 객체 이미지 세트의 구성 변경에 기초하여, 제1 객체의 위치를 추적할 수 있다. 이와 관련된 내용은 도 5 내지 8을 통해 보다 상세하게 설명된다. According to an embodiment, the electronic device updates the configuration of the object image set, that is, the object images included in the object image set, based on the object images acquired according to a specified time interval or according to the occurrence of an event such as a user input. You may. In various embodiments, updating the object images included in the object image set may be understood to be the same or similar to changing the configuration of the object images included in the object image set. The electronic device may track the location of the first object by updating object images included in the first object image set. For example, a position of each of the object images included in the first object image set may be changed as the position of the first object is changed. The electronic device may track the changed position of the first object based on the changed position of each of the object images included in the first object image set. For another example, at least some of the configuration of object images included in the first object image set may be changed. For example, at least some object images may be excluded from the first object image set, and a new object image may be included in the first object image set. The electronic device may track the location of the first object based on a change in the configuration of the first object image set. The related contents will be described in more detail with reference to FIGS. 5 to 8 .

도 3은 일 실시 예에 따른, 전자 장치가 복수의 이미지 데이터들에서 인식된 객체 이미지들을 제1 객체에 대응하는 제1 객체 이미지 세트로 그룹화하는 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a method for an electronic device to group object images recognized from a plurality of image data into a first object image set corresponding to a first object, according to an exemplary embodiment.

도 3을 참조하면, 전자 장치가 복수의 이미지 데이터들에서 인식된 객체 이미지들을 제1 객체에 대응하는 제1 객체 이미지 세트로 그룹화하는 방법(300)은 단계 301 내지 309를 포함할 수 있다. 다양한 실시 예에 따르면, 단계 301 내지 309는 도 9에 도시된 전자 장치(900) 또는 프로세서(920)(또는 도 1a의 프로세서(120))에 의해 수행되는 것으로 이해할 수 있다. 다양한 실시 예에서, 전자 장치가 복수의 이미지 데이터들에서 인식된 객체 이미지들을 제1 객체에 대응하는 제1 객체 이미지 세트로 그룹화하는 방법(300)은 도 3에 도시된 바에 한정되지 않으며, 도 3에 도시된 단계 중 하나 이상의 단계를 생략하거나, 도 3에 도시되지 않은 하나 이상의 단계를 더 포함할 수도 있다.Referring to FIG. 3 , a method 300 in which the electronic device groups object images recognized from a plurality of image data into a first object image set corresponding to a first object may include steps 301 to 309 . According to various embodiments, it may be understood that steps 301 to 309 are performed by the electronic device 900 or the processor 920 shown in FIG. 9 (or the processor 120 of FIG. 1A ). According to various embodiments, the method 300 for the electronic device to group object images recognized from a plurality of image data into a first object image set corresponding to a first object is not limited to that illustrated in FIG. 3 , but FIG. 3 . One or more of the steps shown in FIG. 3 may be omitted, or one or more steps not shown in FIG. 3 may be further included.

단계 301에서, 전자 장치는 복수의 카메라들 각각을 이용하여 획득된 복수의 이미지 데이터들에서 인식된 객체 이미지들을 타겟 영역에 대한 단일 좌표계, 예컨대, 단일 평면에 대한 좌표계 상에 매핑할 수 있다. 상기 복수의 이미지 데이터들은 타겟 영역에 대한 서로 다른 방향으로부터 촬영됨으로써 획득된 것이므로, 각각의 복수의 이미지 데이터들에서 인식된 객체 이미지들은 서로 상이한 좌표 평면 상에 표시된 상태일 수 있다. 전자 장치는 영상 처리 기술, 예컨대, 이미지 워핑(warping) 기술을 이용하여, 복수의 이미지 데이터 각각에서 인식된 객체 이미지들을 단일의 좌표 평면을 가지는 동일한 평면 상에 매핑할 수 있다.In operation 301 , the electronic device may map object images recognized from a plurality of image data obtained by using each of the plurality of cameras on a single coordinate system for a target area, for example, a coordinate system for a single plane. Since the plurality of image data is obtained by photographing from different directions with respect to the target area, object images recognized from each of the plurality of image data may be displayed on different coordinate planes. The electronic device may use an image processing technology, for example, an image warping technology, to map object images recognized from each of a plurality of image data on the same plane having a single coordinate plane.

단계 303에서, 전자 장치는 단계 301에서 단일 평면 상에 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들을 선택할 수 있다. 예를 들면, 전자 장치는 임의의 제1 객체 이미지를 기준으로 상기 지정된 임계 값의 거리 내에 위치하는 객체 이미지들을 제1 객체 이미지와 함께 선택할 수 있고, 상기 선택된 객체 이미지들 중 각각의 객체 이미지를 기준으로 상기 지정된 임계 값의 거리 보다 더 멀리 떨어진 객체 이미지들을 제외하는 과정을 통해, 상호 간의 거리가 상기 지정된 임계 값 보다 작은 객체 이미지들을 선택할 수 있다.In operation 303 , the electronic device may select object images having a mutual distance smaller than a specified threshold value from among the object images mapped on a single plane in operation 301 . For example, the electronic device may select object images located within a distance of the specified threshold value based on an arbitrary first object image together with the first object image, and based on each object image among the selected object images Through a process of excluding object images that are farther away than the specified threshold distance, object images whose mutual distance is smaller than the specified threshold value may be selected.

단계 305에서, 전자 장치는 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서 서로 상이한 카메라로부터 인식된 객체 이미지들을 선택할 수 있다. 예를 들면, 단계 303을 통해 제1 카메라로부터 인식된 제1 객체 이미지, 제2 카메라로부터 인식된 제2 객체 이미지, 제3 카메라로부터 인식된 제3 객체 이미지, 및 제1 카메라로부터 인식된 제4 객체 이미지가 선택된 경우, 전자 장치는 동일한 제1 카메라로부터 인식된 상기 제1 객체 이미지 및 상기 제4 객체 이미지를 제외한 상기 제2 객체 이미지 및 상기 제3 객체 이미지를 선택할 수 있다.In operation 305, the electronic device may select object images recognized by different cameras from among object images whose mutual distance is smaller than a specified threshold value. For example, in step 303, the first object image recognized from the first camera, the second object image recognized from the second camera, the third object image recognized from the third camera, and the fourth object image recognized from the first camera When the object image is selected, the electronic device may select the second object image and the third object image except for the first object image and the fourth object image recognized by the same first camera.

다양한 실시 예에서, 상기 단계 303 및 상기 단계 305는 반드시 단계 303이 수행된 이후에 단계 305가 수행되는 것으로 한정되는 것은 아니며, 동시에 수행되는 단계들로 이해될 수도 있다. 예를 들면, 전자 장치는 동시에 이루어지는 단일의 단계를 통해, 서로 상이한 카메라들로부터 인식된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값보다 작은 객체 이미지들을 선택할 수도 있다.In various embodiments, the step 303 and the step 305 are not necessarily limited to the step 305 being performed after the step 303 is performed, and may be understood as steps performed simultaneously. For example, the electronic device may select object images whose mutual distance is smaller than a specified threshold value among object images recognized by different cameras through a single simultaneous step.

단계 307에서, 전자 장치는 상기 단계 303 내지 305를 통해 선택된 객체 이미지들을 제1 객체 이미지 세트로 설정할 수 있다. 일 실시 예에서, 전자 장치는 상기 단계 303 내지 305를 통해 선택된 객체 이미지들이 모두 동일한 객체에 대응하는 객체 이미지인 것으로 결정할 수 있고, 상기 객체 이미지들을 그룹화 함으로써 제1 객체 이미지 세트로 설정할 수 있다.In operation 307, the electronic device may set the object images selected through operations 303 to 305 as the first object image set. In an embodiment, the electronic device may determine that all of the object images selected through steps 303 to 305 are object images corresponding to the same object, and may set the object images as the first object image set by grouping the object images.

단계 309에서, 전자 장치는 상기 단계 307에서 제1 객체 이미지 세트로 설정된 객체 이미지들이 동일하게 대응하는 객체를 제1 객체로서 설정할 수 있다. 이를 통해, 전자 장치는 제1 객체 이미지 세트에 대응하는 객체를 제1 객체로서 특정할 수 있다.In operation 309, the electronic device may set an object to which the object images set as the first object image set in operation 307 equally correspond to the first object. Through this, the electronic device may specify an object corresponding to the first object image set as the first object.

도 4는 다양한 실시 예에 따른, 전자 장치가 복수의 객체 이미지들을 그룹화하는 방법을 나타낸다.4 illustrates a method for an electronic device to group a plurality of object images, according to various embodiments of the present disclosure.

도 4를 참조하면, 전자 장치가 복수의 객체 이미지들을 그룹화하는 다양한 실시 예가 도시된다. 도 4의 (a), (b), (c), 및 (d)는 서로 별개의 독립적인 실시 예로 이해될 수 있다.Referring to FIG. 4 , various embodiments in which an electronic device groups a plurality of object images are illustrated. 4 (a), (b), (c), and (d) may be understood as separate and independent examples.

도 4의 (a)를 참조하면, 제1 객체 이미지(41a)는 제1 카메라로부터 인식된 객체 이미지이고, 제2 객체 이미지(42a)는 제2 카메라로부터 인식된 객체 이미지이고, 제3 객체 이미지(43a)는 제3 카메라로부터 인식된 객체 이미지일 수 있다. 일 실시 예에 따르면, 전자 장치는 각각의 객체 이미지에 식별 번호를 부여할 수 있으며, 각각의 식별 번호는 대응되는 카메라에 대한 정보를 포함할 수 있다. 일 실시 예에서, 도 4의 (a)에 도시된 바와 같이, 제1 객체 이미지(41a)의 식별 번호는 'a-14'일 수 있고, 'a'는 제1 객체 이미지(41a)가 제1 카메라에서 식별된 객체 이미지라는 것을 의미할 수 있고, '14'는 제1 카메라에서 인식된 객체 이미지의 일련번호를 의미할 수 있다. 일 실시 예에서, 제2 객체 이미지(42a)의 식별 번호는 'b-7'일 수 있고, 'b'는 제2 객체 이미지(42a)가 제2 카메라에서 식별된 객체 이미지라는 것을 의미할 수 있고, '7'은 제2 카메라에서 인식된 객체 이미지의 일련번호를 의미할 수 있다. 일 실시 예에서, 제3 객체 이미지(43a)의 식별 번호는 'c-20'일 수 있고, 'c'는 제3 객체 이미지(43a)가 제3 카메라에서 식별된 객체 이미지라는 것을 의미할 수 있고, '20'은 제3 카메라에서 인식된 객체 이미지의 일련번호를 의미할 수 있다. 4A , a first object image 41a is an object image recognized by a first camera, a second object image 42a is an object image recognized by a second camera, and a third object image (43a) may be an object image recognized by the third camera. According to an embodiment, the electronic device may assign an identification number to each object image, and each identification number may include information on a corresponding camera. In one embodiment, as shown in (a) of FIG. 4 , the identification number of the first object image 41a may be 'a-14', and 'a' indicates that the first object image 41a is the first object image 41a. It may mean an object image identified by the first camera, and '14' may mean a serial number of the object image recognized by the first camera. In an embodiment, the identification number of the second object image 42a may be 'b-7', and 'b' may mean that the second object image 42a is an object image identified by the second camera. and '7' may mean a serial number of an object image recognized by the second camera. In an embodiment, the identification number of the third object image 43a may be 'c-20', and 'c' may mean that the third object image 43a is an object image identified by the third camera. and '20' may mean a serial number of an object image recognized by the third camera.

본 명세서에서 사용되는 객체 이미지의 식별 번호는 상기와 유사한 형태일 수 있고, 식별 번호의 의미도 상기와 유사하게 이해될 수 있다. 예컨대, 도 4의 (b)에 도시된 제4 객체 이미지(44b)의 식별 번호는 'a-6'일 수 있다. 일 실시 예에서, 'a'는 제4 객체 이미지(44b)가, 제1 객체 이미지(41b)와 동일하게, 제1 카메라에서 식별된 객체 이미지라는 것을 의미할 수 있고, '6'은 제1 카메라에서 인식된 객체 이미지의 일련번호를 의미할 수 있다. The identification number of the object image used herein may have a form similar to the above, and the meaning of the identification number may be understood similarly to the above. For example, the identification number of the fourth object image 44b shown in (b) of FIG. 4 may be 'a-6'. In an embodiment, 'a' may mean that the fourth object image 44b is an object image identified by the first camera, and '6' is the first object image 41b. It may mean a serial number of an object image recognized by the camera.

일 실시 예에 따르면, 도 4의 (a)에서 제1 객체 이미지(41a), 제2 객체 이미지(42a), 및 제3 객체 이미지(43a)는 서로 상이한 카메라로부터 인식된 객체 이미지들일 수 있으며, 각각의 객체 이미지 사이의 거리는 지정된 임계 값 보다 작을 수 있다. 예컨대, 제1 객체 이미지(41a) 및 제2 객체 이미지(42a) 사이의 거리, 제2 객체 이미지(42a) 및 제3 객체 이미지(43a) 사이의 거리, 및 제3 객체 이미지(43a) 및 제1 객체 이미지(41a) 사이의 거리는 상기 지정된 임계 값 보다 작을 수 있다. 이 경우, 전자 장치는 제1 객체 이미지(41a), 제2 객체 이미지(42a), 및 제3 객체 이미지(43a)가 동일한 객체에 대응할 가능성이 지정된 수준보다 높은 것으로 판단할 수 있다. 전자 장치는 제1 객체 이미지(41a), 제2 객체 이미지(42a), 및 제3 객체 이미지(43a)를 그룹화 할 수 있다.According to one embodiment, the first object image 41a, the second object image 42a, and the third object image 43a in (a) of FIG. 4 may be object images recognized from different cameras, The distance between each object image may be smaller than a specified threshold value. For example, the distance between the first object image 41a and the second object image 42a, the distance between the second object image 42a and the third object image 43a, and the third object image 43a and the third object image 43a. The distance between one object image 41a may be smaller than the specified threshold value. In this case, the electronic device may determine that the probability that the first object image 41a , the second object image 42a , and the third object image 43a correspond to the same object is higher than a specified level. The electronic device may group the first object image 41a, the second object image 42a, and the third object image 43a.

일 실시 예에서, 제1 객체 이미지(41a), 제2 객체 이미지(42a), 및 제3 객체 이미지(43a)는 동일한 객체에 대응하는 객체 이미지들로서 그룹화 될 수 있고, 제1 객체 이미지(41a) 세트에 포함하는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제1 객체 이미지(41a) 세트에 포함되는 객체 이미지들 각각의 식별 번호로서, 제1 식별 번호 세트를 획득할 수 있고, 상기 제1 객체 이미지(41a) 세트에 대응하는 객체는 객체 A로서 특정할 수 있다.In an embodiment, the first object image 41a, the second object image 42a, and the third object image 43a may be grouped as object images corresponding to the same object, and the first object image 41a Object images to include in the set may be selected. In an embodiment, the electronic device may obtain a first set of identification numbers as identification numbers of each of the object images included in the set of the first object image 41a, and add the first set of object images 41a. The corresponding object can be specified as object A.

일 실시 예에 따르면, 도 4의 (b)에서 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)는 서로 상이한 카메라로부터 인식된 객체 이미지들일 수 있으며, 각각의 객체 이미지 사이의 거리는 지정된 임계 값 보다 작을 수 있다. 예컨대, 제1 객체 이미지(41b) 및 제2 객체 이미지(42b) 사이의 거리, 제2 객체 이미지(42b) 및 제3 객체 이미지(43b) 사이의 거리, 및 제3 객체 이미지(43b) 및 제1 객체 이미지(41b) 사이의 거리는 상기 지정된 임계 값 보다 작을 수 있다. According to an embodiment, the first object image 41b, the second object image 42b, and the third object image 43b in FIG. 4B may be object images recognized from different cameras, The distance between each object image may be smaller than a specified threshold value. For example, the distance between the first object image 41b and the second object image 42b, the distance between the second object image 42b and the third object image 43b, and the third object image 43b and the third object image 43b The distance between one object image 41b may be smaller than the specified threshold value.

일 실시 예에서, 제4 객체 이미지(44b)는 제1 객체 이미지(41b)를 기준으로 상기 지정된 임계 값 보다 작은 거리만큼 떨어져 있을 수 있고, 제2 객체 이미지(42b) 또는 제3 객체 이미지(43b) 기준으로는 상기 지정된 임계 값 보다 큰 거리만큼 떨어져 있을 수 있다. 다양한 실시 예에서, 제4 객체 이미지(44b)는 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)의 그룹화가 이루어지기 전에 인식될 수도 있고, 상기 객체 이미지들의 그룹화가 이루어진 이후에 인식될 수도 있다. 이 경우, 전자 장치는 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)에 대하여 동일한 객체에 대응할 가능성이 지정된 수준보다 높은 것으로 판단할 수 있고, 제4 객체 이미지(44b)에 대하여 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)가 대응하는 객체와 동일한 객체에 대응할 가능성이 지정된 수준보다 낮은 것으로 판단할 수 있다. 전자 장치는 제4 객체 이미지(44b)를 제외한 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)를 그룹화 할 수 있다. In an embodiment, the fourth object image 44b may be spaced apart by a distance smaller than the specified threshold with respect to the first object image 41b, and the second object image 42b or the third object image 43b ) may be separated by a distance greater than the specified threshold value as a reference. In various embodiments, the fourth object image 44b may be recognized before the first object image 41b, the second object image 42b, and the third object image 43b are grouped, and the object It may be recognized after the grouping of images has been made. In this case, the electronic device may determine that the probability of corresponding to the same object with respect to the first object image 41b, the second object image 42b, and the third object image 43b is higher than a specified level, With respect to the object image 44b, it can be determined that the probability that the first object image 41b, the second object image 42b, and the third object image 43b correspond to the same object as the corresponding object is lower than the specified level. have. The electronic device may group the first object image 41b, the second object image 42b, and the third object image 43b except for the fourth object image 44b.

일 실시 예에서, 제1 객체 이미지(41b), 제2 객체 이미지(42b), 및 제3 객체 이미지(43b)는 동일한 객체에 대응하는 객체 이미지들로서, 제2 객체 이미지(42b) 세트에 포함하는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제2 객체 이미지(42b) 세트로서 객체 이미지들의 그룹화가 이루어진 이후에 제4 객체 이미지(44b)가 인식되더라도, 제4 객체 이미지(44b)를 상기 제2 객체 이미지(42b) 세트에 포함되지 않도록 할 수 있다. 일 실시 예에서, 전자 장치는 상기 제2 객체 이미지(42b) 세트에 포함되는 객체 이미지들 각각의 식별 번호로서, 제2 식별 번호 세트를 획득할 수 있고, 상기 제2 객체 이미지(42b) 세트에 대응하는 객체는 객체 B로서 특정할 수 있다.In one embodiment, the first object image 41b, the second object image 42b, and the third object image 43b are object images corresponding to the same object, and include in the second object image 42b set. Object images can be selected. In an embodiment, the electronic device converts the fourth object image 44b to the second object image even if the fourth object image 44b is recognized after the object images are grouped as the second object image 42b set. (42b) may not be included in the set. In an embodiment, the electronic device may obtain a second set of identification numbers as identification numbers of each of the object images included in the set of the second object image 42b, and the second set of object images 42b The corresponding object can be specified as object B.

일 실시 예에 따르면, 도 4의 (c)에서 제1 객체 이미지(41c), 제2 객체 이미지(42c), 및 제3 객체 이미지(43c)는 서로 상이한 카메라로부터 인식된 객체 이미지들일 수 있으며, 각각의 객체 이미지 사이의 거리는 지정된 임계 값 보다 작을 수 있다. 예컨대, 제1 객체 이미지(41c) 및 제2 객체 이미지(42c) 사이의 거리, 제2 객체 이미지(42c) 및 제3 객체 이미지(43c) 사이의 거리, 및 제3 객체 이미지(43c) 및 제1 객체 이미지(41c) 사이의 거리는 상기 지정된 임계 값 보다 작을 수 있다. 일 실시 예에서, 제4 객체 이미지(44c)는 제1 객체 이미지(41c)를 기준으로 상기 지정된 임계 값 보다 작은 거리만큼 떨어져 있을 수 있고, 제2 객체 이미지(42c) 및 제3 객체 이미지(43c) 기준으로도 상기 지정된 임계 값 보다 큰 거리만큼 떨어져 있을 수 있다. 다시 말해, 제1 카메라에 대응하는 둘 이상의 객체 이미지들(예: 제1 객체 이미지(41c) 및 제4 객체 이미지(44c))이 제2 객체 이미지(42c) 및 제3 객체 이미지(43c)와 상기 지정된 임계 값 보다 작은 거리만큼 떨어져 있을 수 있다. 이 경우, 제1 객체 이미지(41c) 및 제4 객체 이미지(44c) 중 어느 객체 이미지가 제2 객체 이미지(42c) 및 제3 객체 이미지(43c)가 대응하는 객체와 동일한 객체에 대응하는지 불분명할 수 있으므로, 전자 장치는 상기 제1 카메라에 대응하는 제1 객체 이미지(41c) 및 제4 객체 이미지(44c)는 그룹화 하지 않고, 상기 제1 카메라를 제외한 나머지 카메라들(예: 제2 카메라, 제3 카메라)에 대응하는 제2 객체 이미지(42c) 및 제3 객체 이미지(43c)를 그룹화 할 수 있다. According to an embodiment, the first object image 41c, the second object image 42c, and the third object image 43c in FIG. 4C may be object images recognized from different cameras, The distance between each object image may be smaller than a specified threshold value. For example, the distance between the first object image 41c and the second object image 42c, the distance between the second object image 42c and the third object image 43c, and the third object image 43c and the third object image 43c The distance between one object image 41c may be smaller than the specified threshold value. In an embodiment, the fourth object image 44c may be spaced apart by a distance smaller than the specified threshold value with respect to the first object image 41c, and the second object image 42c and the third object image 43c ) may be separated by a distance greater than the specified threshold value as a reference. In other words, two or more object images (eg, the first object image 41c and the fourth object image 44c) corresponding to the first camera are combined with the second object image 42c and the third object image 43c. They may be spaced apart by a distance smaller than the specified threshold value. In this case, it may be unclear which object image among the first object image 41c and the fourth object image 44c corresponds to the same object as the object to which the second object image 42c and the third object image 43c correspond. Therefore, the electronic device does not group the first object image 41c and the fourth object image 44c corresponding to the first camera, and the other cameras (eg, the second camera, the second camera 3), the second object image 42c and the third object image 43c corresponding to the camera may be grouped.

일 실시 예에서, 제2 객체 이미지(42c) 및 제3 객체 이미지(43c)는 동일한 객체에 대응하는 객체 이미지들로서, 제3 객체 이미지(43c) 세트에 포함하는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제3 객체 이미지(43c) 세트에 포함되는 객체 이미지들 각각의 식별 번호로서, 제3 식별 번호 세트를 획득할 수 있고, 상기 제3 객체 이미지(43c) 세트에 대응하는 객체는 객체 C로서 특정할 수 있다.In an embodiment, the second object image 42c and the third object image 43c are object images corresponding to the same object, and may be selected as object images included in the third object image 43c set. In an embodiment, the electronic device may obtain a third set of identification numbers as identification numbers of each of the object images included in the set of the third object image 43c, and add the third set of object images 43c. The corresponding object can be specified as object C.

일 실시 예에 따르면, 도 4의 (d)에서 제1 객체 이미지(41d), 제2 객체 이미지(42d), 및 제3 객체 이미지(43d)는 서로 상이한 카메라로부터 인식된 객체 이미지들일 수 있으나, 제1 객체 이미지(41d)는 제2 객체 이미지(42d) 및 제3 객체 이미지(43d)와 지정된 임계 값 보다 큰 거리만큼 떨어져 있을 수 있다. 예컨대, 제2 객체 이미지(42d) 및 제3 객체 이미지(43d) 사이의 거리는 상기 지정된 임계 값 보다 작을 수 있으나, 제1 객체 이미지(41d) 및 제2 객체 이미지(42d) 사이의 거리 및 제3 객체 이미지(43d) 및 제1 객체 이미지(41d) 사이의 거리는 상기 지정된 임계 값 보다 클 수 있다. 이 경우, 전자 장치는 제1 객체 이미지(41d)가 제2 객체 이미지(42d) 및 제3 객체 이미지(43d)가 대응하는 객체와 동일한 객체에 대응할 가능성이 지정된 수준보다 낮다고 판단할 수 있다. 전자 장치는 제1 객체 이미지(41d)를 제외하고 제2 객체 이미지(42d) 및 제3 객체 이미지(43d)를 그룹화 할 수 있다.According to an embodiment, the first object image 41d, the second object image 42d, and the third object image 43d in (d) of FIG. 4 may be object images recognized from different cameras, The first object image 41d may be separated from the second object image 42d and the third object image 43d by a distance greater than a specified threshold value. For example, the distance between the second object image 42d and the third object image 43d may be smaller than the specified threshold value, but the distance between the first object image 41d and the second object image 42d and the third The distance between the object image 43d and the first object image 41d may be greater than the specified threshold value. In this case, the electronic device may determine that the probability that the first object image 41d corresponds to the same object as the object to which the second object image 42d and the third object image 43d correspond is lower than a specified level. The electronic device may group the second object image 42d and the third object image 43d except for the first object image 41d.

일 실시 예에서, 제2 객체 이미지(42d) 및 제3 객체 이미지(43d)는 동일한 객체에 대응하는 객체 이미지들로서, 제4 객체 이미지 세트에 포함하는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제4 객체 이미지 세트에 포함되는 객체 이미지들 각각의 식별 번호로서, 제4 식별 번호 세트를 획득할 수 있고, 상기 제4 객체 이미지 세트에 대응하는 객체는 객체 D로서 특정할 수 있다.In an embodiment, the second object image 42d and the third object image 43d are object images corresponding to the same object, and may be selected as object images included in the fourth object image set. In an embodiment, the electronic device may obtain a fourth identification number set as an identification number of each of the object images included in the fourth object image set, and the object corresponding to the fourth object image set is object D can be specified as

도 5는 일 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체 이미지들을 각각의 객체에 대응하는 객체 이미지 세트로 그룹화하는 방법을 나타낸다.5 illustrates a method of grouping, by an electronic device, object images into an object image set corresponding to each object in a process in which a plurality of objects are overlapped and separated, according to an embodiment.

도 5를 참조하면, 도 5에 도시된 이미지 데이터들은, 예컨대, 홈 베이스 쪽에 위치하는 제3 카메라를 이용하여 획득된 것일 수 있다. 일 실시 예에 따르면, 복수의 객체들이 겹쳐지고 분리되는 과정은, 예컨대, 1루 베이스의 주자가 1루 수비수의 좌측에서 우측으로 이동하는 과정으로서, 제1 상태(501), 제2 상태(502), 제3 상태(503)를 포함하는 과정으로 이해될 수 있다. 일 실시 예에서, 제1 상태(501)는 도 5에 도시된 바와 같이, 1루 베이스의 주자가 1루 수비수의 좌측에 위치하는 상태일 수 있고, 제2 상태(502)는 도 5에 도시된 바와 같이, 1루 베이스의 주자가 1루 수비수의 뒤쪽에 위치하는 상태일 수 있고, 제3 상태(503)는 도 5에 도시된 바와 같이, 1루 베이스의 주자가 1루 수비수의 우측에 위치하는 상태일 수 있다. 일 실시 예에 따르면, 홈 베이스 쪽에 위치하는 제3 카메라에서 바라보았을 때에는 제2 상태(502)에서 주자와 수비수는 겹쳐져 있는 것으로 보일 수 있으나, 3루 베이스 또는 1루 베이스 쪽에 위치하는 제1 카메라 또는 제2 카메라에서 바라보았을 때에는 제1 상태(501), 제2 상태(502), 및 제3 상태(503)에서 모두 주자와 수비수가 겹쳐져 있지 않은 것으로 보일 수 있다.Referring to FIG. 5 , the image data shown in FIG. 5 may be obtained using, for example, a third camera located on the home base side. According to an embodiment, the process of overlapping and separating the plurality of objects is, for example, a process in which a first base runner moves from the left to the right of the first base defender, in a first state 501 and a second state 502 . ), may be understood as a process including the third state 503 . In one embodiment, the first state 501 may be a state in which the runner of the first base is located to the left of the first base defender, as shown in FIG. 5 , and the second state 502 is shown in FIG. 5 . As shown, the first base runner may be located behind the first base defender, and in the third state 503, as shown in FIG. 5 , the first base runner is to the right of the first base defender. It may be located. According to an embodiment, when viewed from the third camera positioned on the home base side, the runner and the defender may appear to overlap in the second state 502, but the first camera positioned on the third base or the first base When viewed from the second camera, it may be seen that the runner and the defender do not overlap in the first state 501 , the second state 502 , and the third state 503 .

제1 상태(501)에서, 전자 장치는 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 예를 들어, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서, 'a-14' 객체 이미지 및 'a-11' 객체 이미지가 인식될 수 있고, 제2 카메라를 이용하여 획득된 제2 이미지 데이터에서, 'b-7' 객체 이미지 및 'b-2' 객체 이미지가 인식될 수 있고, 제3 카메라를 이용하여 획득된 제3 이미지 데이터에서, 'c-20' 객체 이미지 및 'c-16' 객체 이미지가 인식될 수 있다. 전자 장치는 그룹화 과정을 통해, 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-20' 객체 이미지를 동일한 객체인 객체 A(주자)에 대응하는 것으로 결정하고 상기 객체 이미지들을 제1 객체 이미지 세트로서 선택할 수 있다. 전자 장치는 또한, 그룹화 과정을 통해, 'a-11' 객체 이미지, 'b-2' 객체 이미지, 및 'c-16' 객체 이미지를 동일한 객체인 객체 B(수비수)에 대응하는 것으로 결정하고, 상기 객체 이미지들을 제2 객체 이미지 세트로서 선택할 수 있다. 이 경우, 전자 장치는 상기 그룹화 과정을 통해, 객체 A에 대한 제1 식별 번호 세트 및 객체 B에 대한 제2 식별 번호 세트를 각각 획득할 수 있다.In the first state 501 , the electronic device may acquire a plurality of image data using the first camera, the second camera, and the third camera, and may recognize object images from the respective image data. For example, in the first image data acquired using the first camera, an 'a-14' object image and an 'a-11' object image may be recognized, and a second image acquired using the second camera In the data, a 'b-7' object image and a 'b-2' object image can be recognized, and in the third image data obtained using the third camera, the 'c-20' object image and the 'c-16' object image ' The object image can be recognized. The electronic device determines, through the grouping process, the object image 'a-14', the object image 'b-7', and the object image 'c-20' as corresponding to the object A (runner), which is the same object, and determines the object image may be selected as the first object image set. The electronic device also determines, through the grouping process, that the 'a-11' object image, the 'b-2' object image, and the 'c-16' object image correspond to the same object, object B (defender), The object images may be selected as a second set of object images. In this case, the electronic device may obtain a first identification number set for object A and a second identification number set for object B through the grouping process, respectively.

제2 상태(502)에서, 전자 장치는 제1 상태(501)와 동일하게 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 일 실시 예에서, 제3 카메라에서 바라보았을 때에는 1루 베이스의 주자와 1루 수비수가 겹쳐져 있는 하나의 객체로 인식될 수도 있다. 이 경우, 제3 카메라를 이용하여 획득된 제3 이미지 데이터에서는 'c-16' 객체 이미지만 인식될 수 있고, 'c-20' 객체 이미지는 인식되지 않을 수 있다. 다시 말해, 전자 장치가 제1 상태(501)에서 객체 A에 대응하는 제1 객체 이미지 세트에 'c-20' 객체 이미지가 포함하도록 객체 이미지들을 선택한 이후에, 제2 상태(502)에서 'c-20' 객체 이미지는, 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들(예" 'a-14' 객체 이미지 및 'b-7' 객체 이미지)로부터 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않을 수 있다. 이 경우, 전자 장치는 'a-14' 객체 이미지 및 'b-7' 객체 이미지만으로 그룹화를 수행할 수 있다.In the second state 502 , the electronic device may acquire a plurality of image data using the first camera, the second camera, and the third camera in the same manner as in the first state 501 , and in each image data It can recognize object images. In an embodiment, when viewed from the third camera, the first base runner and the first base defender may be recognized as one overlapping object. In this case, only the 'c-16' object image may be recognized in the third image data obtained using the third camera, and the 'c-20' object image may not be recognized. In other words, after the electronic device selects object images such that 'c-20' object image is included in the first object image set corresponding to object A in the first state 501, in the second state 502, 'c The -20' object image exists within an area range of a distance smaller than a specified threshold value from the remaining object images (eg, 'a-14' object image and 'b-7' object image) included in the first object image set. In this case, the electronic device may perform grouping with only the 'a-14' object image and the 'b-7' object image.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되었기 때문에, 객체 이미지 세트에 대응하는 객체가 어떤 객체인지를 다시 결정할 수 있다. 예를 들면, 전자 장치는 'a-14' 객체 이미지 및 'b-7' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-14’ 객체 이미지 및 ‘b-7’ 객체 이미지가 모두 종래에 객체 A에 대응하는 객체 이미지였기 때문에, 전자 장치는 상기 객체 이미지 세트 역시 객체 A에 대응하는 것으로 결정할 수 있다. 이에 따라, 제1 객체 이미지 세트는 상기 'c-20' 객체 이미지를 제외하도록 구성이 변경될 수 있다. 다양한 실시 예에서, 제1 객체 이미지 세트의 구성이 변경되는 것은 제1 객체 이미지 세트가 업데이트 되는 것과 동일 또는 유사하게 이해될 수 있다. 또한, 전자 장치는 객체 A에 대한 제1 식별 번호 세트에 대하여, 식별 번호 'c-20'을 제외하도록 구성을 변경할 수 있다. According to an embodiment, since the configuration of the object image set is changed, the electronic device may determine again which object the object corresponding to the object image set is. For example, the electronic device may reset the object to which the object image set including the 'a-14' object image and the 'b-7' object image corresponds. In an embodiment, since both the object image 'a-14' and the object image 'b-7' have conventionally been object images corresponding to object A, the electronic device may determine that the object image set also corresponds to object A. have. Accordingly, the configuration of the first object image set may be changed to exclude the 'c-20' object image. In various embodiments, a change in the configuration of the first object image set may be understood as the same or similar to that of the first object image set being updated. Also, the electronic device may change the configuration to exclude the identification number 'c-20' from the first identification number set for the object A.

일 실시 예에 따르면, 전자 장치는 객체를 보다 정확하게 인식할 수 있다고 판단되는 카메라의 우선순위를 높게 설정하고, 객체를 상대적으로 인식하기 어렵다고 판단되는 카메라의 우선순위는 낮게 설정할 수 있다. 일 실시 예에서, 제1 객체 이미지 세트는 'c-20' 객체 이미지를 제외하도록 업데이트 되었으므로, 전자 장치는 상기 'c-20' 객체 이미지에 대응하는 카메라, 예컨대, 제3 카메라에서 객체 A를 정확히 인식하기 어렵다고 판단할 수 있다. 전자 장치는 제3 카메라의 우선순위를 제1 카메라의 우선순위 및 제2 카메라의 우선순위 보다 낮게 설정할 수 있다. According to an embodiment, the electronic device may set a higher priority of a camera that is determined to be able to recognize an object more accurately and set a lower priority of a camera that is determined that it is relatively difficult to recognize an object. In an embodiment, since the first object image set has been updated to exclude the 'c-20' object image, the electronic device accurately detects the object A from the camera corresponding to the 'c-20' object image, for example, the third camera. It can be considered difficult to recognize. The electronic device may set the priority of the third camera to be lower than the priority of the first camera and the priority of the second camera.

일 실시 예에 따르면, 전자 장치는 제3 카메라에서 객체 A가 객체 B에 겹쳐져 보이게 되더라도, 제1 카메라 및 제2 카메라에서 인식되는 객체 이미지들을 이용하여 객체 이미지 세트를 업데이트 함으로써 객체 A의 위치를 정확하게 추적할 수 있다.According to an embodiment, even when the object A is superimposed on the object B in the third camera, the electronic device updates the object image set using the object images recognized by the first camera and the second camera to accurately determine the position of the object A. can be tracked

제3 상태(503)에서, 전자 장치는 제1 상태(501) 및 제2 상태(502)와 동일하게 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 일 실시 예에서, 전자 장치는 제3 카메라를 이용하여 획득한 제3 이미지 데이터에서 'c-24' 객체 이미지를 인식할 수 있다. 즉, 전자 장치는 제1 상태(501)에서 인식되었다가 제2 상태(502)에서 인식하지 못했던 'c-20' 객체 이미지 대신 새로운 객체 이미지로서 'c-24' 객체 이미지를 제2 상태(502) 이후의 제3 상태(503)에서 인식할 수 있다. 예를 들어, 제2 상태(502)에서 제1 객체 이미지 세트가 상기 'c-20' 객체 이미지를 제외하도록 구성이 변경된 이후에, 전자 장치는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들(예: 'a-14' 객체 이미지 및 'b-7' 객체 이미지)과의 거리가 지정된 임계 값 보다 작은 'c-24' 객체 이미지를 제3 이미지 데이터로부터 인식할 수 있다. 이 경우, 전자 장치는 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-24' 객체 이미지에 대하여 다시 그룹화를 수행할 수 있다.In the third state 503 , the electronic device may acquire a plurality of image data using the first camera, the second camera, and the third camera in the same manner as in the first state 501 and the second state 502 . and object images can be recognized from each image data. In an embodiment, the electronic device may recognize the 'c-24' object image from the third image data acquired using the third camera. That is, the electronic device sets the 'c-24' object image as a new object image in the second state 502 instead of the 'c-20' object image recognized in the first state 501 and not recognized in the second state 502 . ) can be recognized in the subsequent third state 503 . For example, after the configuration is changed so that the first object image set excludes the 'c-20' object image in the second state 502, the electronic device displays object images ( Example: A 'c-24' object image whose distance to the 'a-14' object image and the 'b-7' object image) is smaller than a specified threshold may be recognized from the third image data. In this case, the electronic device may re-group the 'a-14' object image, the 'b-7' object image, and the 'c-24' object image.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되었기 때문에, 객체 이미지 세트에 대응하는 객체가 어떤 객체인지를 다시 결정할 수 있다. 예를 들면, 전자 장치는 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-24' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-14’ 객체 이미지 및 ‘b-7’ 객체 이미지 모두 종래에 객체 A에 대응하는 객체 이미지였고 'c-24' 객체 이미지는 새로운 객체 이미지이기 때문에, 전자 장치는 상기 객체 이미지 세트 역시 객체 A에 대응하는 것으로 결정할 수 있다. 일 실시 예에서, 전자 장치는 카메라의 우선순위에 기초하여 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다. 예를 들어, 상기 제2 상태(502)에서 제3 카메라의 우선순위는 제1 카메라의 우선순위 및 제2 카메라의 우선순위보다 낮게 설정되었으므로, 전자 장치는 제1 카메라 및 제2 카메라에 기초하여 상기 대응하는 객체를 설정할 수 있다. 일 실시 예에서, 제1 카메라를 이용한 이미지 데이터에서 인식된 'a-14' 객체 이미지 및 제2 카메라를 이용한 이미지 데이터에서 인식된 'b-7' 객체 이미지는 모두 객체 A에 대응하는 객체 이미지였으므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체를 객체 A로 설정할 수 있다.According to an embodiment, since the configuration of the object image set is changed, the electronic device may determine again which object the object corresponding to the object image set is. For example, the electronic device may reset the object to which the object image set including the 'a-14' object image, the 'b-7' object image, and the 'c-24' object image corresponds. In an embodiment, since both the 'a-14' object image and the 'b-7' object image are conventionally object images corresponding to object A and the 'c-24' object image is a new object image, the electronic device The image set may also be determined to correspond to object A. In an embodiment, the electronic device may set the object to which the object image set corresponds based on the priority of the camera. For example, in the second state 502 , the priority of the third camera is set lower than the priority of the first camera and the priority of the second camera. The corresponding object can be set. In one embodiment, the object image 'a-14' recognized in the image data using the first camera and the object image 'b-7' recognized in the image data using the second camera are all object images corresponding to object A. , the electronic device may set the object to which the object image set corresponds as object A.

이에 따라, 객체 A에 대응하는 제1 객체 이미지 세트는 'c-24' 객체 이미지를 더 포함하도록 구성이 변경될 수 있다. 또한, 전자 장치는 객체 A에 대한 제1 식별 번호 세트에 대하여, 식별 번호 'c-24'를 더 포함하도록 구성을 변경할 수 있다. Accordingly, the configuration of the first object image set corresponding to the object A may be changed to further include the 'c-24' object image. Also, the electronic device may change the configuration of the first set of identification numbers for object A to further include identification number 'c-24'.

일 실시 예에 따르면, 전자 장치는 제3 카메라에서 객체 A가 객체 B에 겹쳐져 보인 후에 다시 분리되어 나타나게 되더라도, 제3 카메라에서 새롭게 인식되는 객체 이미지를 객체 이미지 세트에 포함되도록 객체 이미지 세트를 업데이트 함으로써 객체 A 및 객체 B의 위치를 정확하게 추적할 수 있다.According to an embodiment, the electronic device updates the object image set so that the object image newly recognized by the third camera is included in the object image set, even when the object A appears to be separated again after being superimposed on the object B in the third camera. The location of object A and object B can be accurately tracked.

도 6은 다른 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체 이미지들을 각각의 객체에 대응하는 객체 이미지 세트로 그룹화하는 방법을 나타낸다.6 is a diagram illustrating a method in which an electronic device groups object images into an object image set corresponding to each object while a plurality of objects are overlapped and separated, according to another exemplary embodiment.

도 6을 참조하면, 도 6에 도시된 이미지 데이터들은, 예컨대, 1루 베이스 쪽에 위치하는 제2 카메라를 이용하여 획득된 것일 수 있다. 일 실시 예에 따르면, 복수의 객체들이 겹쳐지고 분리되는 과정은, 예컨대, 포수가 타자의 앞쪽으로 이동하였다가 뒤로 이동하는 과정으로서, 제1 상태(601), 제2 상태(602), 제3 상태(603)를 포함하는 과정으로 이해될 수 있다. 일 실시 예에서, 제1 상태(601)는 도 6에 도시된 바와 같이, 포수가 홈 베이스 쪽에 가깝게 위치한 상태일 수 있고, 제2 상태(602)는 도 6에 도시된 바와 같이, 포수가 홈 베이스로부터 멀어지면서 타자와 나란히 위치하는 상태일 수 있고, 제3 상태(603)는 도 6에 도시된 바와 같이, 포수가 타자보다 홈 베이스로부터 더 멀리 뒤쪽으로 떨어진 상태일 수 있다. 일 실시 예에 따르면, 1루 베이스 쪽에 위치하는 제2 카메라에서 바라보았을 때에는 제2 상태(602)에서 타자와 포수는 겹쳐져 있는 것으로 보일 수 있으나, 3루 베이스 또는 홈 베이스 쪽에 위치하는 제1 카메라 또는 제3 카메라에서 바라보았을 때에는 제1 상태(601), 제2 상태(602), 및 제3 상태(603)에서 모두 타자와 포수가 겹쳐져 있지 않은 것으로 보일 수 있다.Referring to FIG. 6 , the image data shown in FIG. 6 may be obtained using, for example, a second camera located on the first base side. According to an embodiment, the process of overlapping and separating the plurality of objects is, for example, a process in which the catcher moves to the front of the batter and then to the back of the batter. The first state 601 , the second state 602 , and the third It may be understood as a process including the state 603 . In one embodiment, the first state 601 may be a state in which the catcher is located close to the home base as shown in FIG. 6 , and the second state 602 is a state in which the catcher is positioned close to the home base as shown in FIG. 6 . It may be a state positioned side by side with the batter while moving away from the base, and the third state 603 may be a state in which the catcher is farther back from the home base than the batter, as shown in FIG. 6 . According to an embodiment, when viewed from the second camera positioned on the first base side, the batter and the catcher may appear to overlap in the second state 602, but the first camera positioned on the third base or home base side or When viewed from the third camera, it may be seen that the batter and the catcher do not overlap each other in the first state 601 , the second state 602 , and the third state 603 .

제1 상태(601)에서, 전자 장치는 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 예를 들어, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서, 'a-22' 객체 이미지 및 'a-15' 객체 이미지가 인식될 수 있고, 제2 카메라를 이용하여 획득된 제2 이미지 데이터에서, 'b-4' 객체 이미지 및 'b-22' 객체 이미지가 인식될 수 있고, 제3 카메라를 이용하여 획득된 제3 이미지 데이터에서, 'c-17' 객체 이미지 및 'c-32' 객체 이미지가 인식될 수 있다. 전자 장치는 그룹화 과정을 통해, 'a-22' 객체 이미지, 'b-4' 객체 이미지, 및 'c-17' 객체 이미지를 동일한 객체인 객체 C(타자)에 대응하는 것으로 결정하고 상기 객체 이미지들을 제3 객체 이미지 세트로서 선택할 수 있다. 전자 장치는 또한, 그룹화 과정을 통해, 'a-15' 객체 이미지, 'b-22' 객체 이미지, 및 'c-32' 객체 이미지를 동일한 객체인 객체 D(포수)에 대응하는 것으로 결정하고, 상기 객체 이미지들을 제4 객체 이미지 세트로서 선택할 수 있다. 이 경우, 전자 장치는 상기 그룹화 과정을 통해, 객체 C에 대한 제3 식별 번호 세트 및 객체 D에 대한 제4 식별 번호 세트를 각각 획득할 수 있다.In the first state 601 , the electronic device may acquire a plurality of image data using the first camera, the second camera, and the third camera, and may recognize object images from the respective image data. For example, in the first image data acquired using the first camera, an 'a-22' object image and an 'a-15' object image may be recognized, and a second image acquired using the second camera In the data, a 'b-4' object image and a 'b-22' object image can be recognized, and in the third image data obtained using the third camera, a 'c-17' object image and a 'c-32' object image ' The object image can be recognized. The electronic device determines, through the grouping process, object image 'a-22', object image 'b-4', and object image 'c-17' as corresponding to object C (other), which is the same object, and determines the object image can be selected as the third object image set. The electronic device also determines, through the grouping process, that the 'a-15' object image, 'b-22' object image, and 'c-32' object image correspond to the same object, object D (catcher), The object images may be selected as the fourth object image set. In this case, the electronic device may obtain the third identification number set for the object C and the fourth identification number set for the object D through the grouping process, respectively.

제2 상태(602)에서, 전자 장치는 제1 상태(601)와 동일하게 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 일 실시 예에서, 제2 카메라에서 바라보았을 때에는 타자와 포수가 겹쳐져 있는 하나의 객체로 인식될 수도 있다. 이 경우, 제2 카메라를 이용하여 획득된 제2 이미지 데이터에서는 'b-22' 객체 이미지만 인식될 수 있고, 'b-4' 객체 이미지는 인식되지 않을 수 있다. 다시 말해, 전자 장치가 제1 상태(601)에서 객체 C에 대응하는 제3 객체 이미지 세트에 'b-4' 객체 이미지가 포함하도록 객체 이미지들을 선택한 이후에, 제2 상태(602)에서 'b-4' 객체 이미지는, 제3 객체 이미지 세트에 포함되는 나머지 객체 이미지들(예" 'a-22' 객체 이미지 및 'c-17' 객체 이미지)로부터 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않을 수 있다. 이 경우, 전자 장치는 'a-22' 객체 이미지 및 'c-17' 객체 이미지만으로 그룹화를 수행할 수 있다.In the second state 602 , the electronic device may acquire a plurality of image data by using the first camera, the second camera, and the third camera in the same manner as in the first state 601 , and in each image data It can recognize object images. In an embodiment, when viewed from the second camera, the batter and the catcher may be recognized as one overlapping object. In this case, only the 'b-22' object image may be recognized in the second image data obtained using the second camera, and the 'b-4' object image may not be recognized. In other words, after the electronic device selects object images to include object image 'b-4' in the third object image set corresponding to object C in the first state 601 , in the second state 602 , 'b -4' object image exists within a range of a region with a distance smaller than a specified threshold value from the remaining object images (eg, 'a-22' object image and 'c-17' object image) included in the third object image set In this case, the electronic device may perform grouping with only the 'a-22' object image and the 'c-17' object image.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되었기 때문에, 객체 이미지 세트에 대응하는 객체가 어떤 객체인지를 다시 결정할 수 있다. 예를 들면, 전자 장치는 'a-22' 객체 이미지 및 'c-17' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-22’ 객체 이미지 및 ‘c-17’ 객체 이미지가 모두 종래에 객체 C에 대응하는 객체 이미지였기 때문에, 전자 장치는 상기 객체 이미지 세트 역시 객체 C에 대응하는 것으로 결정할 수 있다. 이에 따라, 제3 객체 이미지 세트는 상기 'b-4' 객체 이미지를 제외하도록 구성이 변경될 수 있다. 다양한 실시 예에서, 제1 객체 이미지 세트의 구성이 변경되는 것은 제1 객체 이미지 세트가 업데이트 되는 것과 동일 또는 유사하게 이해될 수 있다. 또한, 전자 장치는 객체 C에 대한 제3 식별 번호 세트에 대하여, 식별 번호 'b-4'를 제외하도록 업데이트할 수 있다. According to an embodiment, since the configuration of the object image set is changed, the electronic device may determine again which object the object corresponding to the object image set is. For example, the electronic device may reset the object to which the object image set including the 'a-22' object image and the 'c-17' object image corresponds. In an embodiment, since both the 'a-22' object image and the 'c-17' object image have conventionally been object images corresponding to the object C, the electronic device may determine that the object image set also corresponds to the object C. have. Accordingly, the configuration of the third object image set may be changed to exclude the 'b-4' object image. In various embodiments, a change in the configuration of the first object image set may be understood as the same or similar to that of the first object image set being updated. Also, the electronic device may update the third identification number set for object C to exclude identification number 'b-4'.

일 실시 예에 따르면, 전자 장치는 객체를 보다 정확하게 인식할 수 있다고 판단되는 카메라의 우선순위를 높게 설정하고, 객체를 상대적으로 인식하기 어렵다고 판단되는 카메라의 우선순위는 낮게 설정할 수 있다. 일 실시 예에서, 제3 객체 이미지 세트는 'b-4' 객체 이미지를 제외하도록 업데이트 되었으므로, 전자 장치는 상기 'b-4' 객체 이미지에 대응하는 카메라, 예컨대, 제2 카메라에서 객체 C를 정확히 인식하기 어렵다고 판단할 수 있다. 전자 장치는 제2 카메라의 우선순위를 제1 카메라의 우선순위 및 제3 카메라의 우선순위 보다 낮게 설정할 수 있다.According to an embodiment, the electronic device may set a higher priority of a camera that is determined to be able to recognize an object more accurately and set a lower priority of a camera that is determined that it is relatively difficult to recognize an object. In an embodiment, since the third object image set has been updated to exclude the 'b-4' object image, the electronic device accurately captures the object C from the camera corresponding to the 'b-4' object image, for example, the second camera. It can be considered difficult to recognize. The electronic device may set the priority of the second camera to be lower than the priority of the first camera and the priority of the third camera.

일 실시 예에 따르면, 전자 장치는 제2 카메라에서 객체 C가 객체 D에 겹쳐져 보이게 되더라도, 제1 카메라 및 제3 카메라에서 인식되는 객체 이미지들을 이용하여 객체 이미지 세트를 업데이트 함으로써 객체 C의 위치를 정확하게 추적할 수 있다.According to an embodiment, even if the object C is superimposed on the object D in the second camera, the electronic device updates the object image set using the object images recognized by the first camera and the third camera to accurately determine the position of the object C. can be tracked

제3 상태(603)에서, 전자 장치는 제1 상태(601) 및 제2 상태(602)와 동일하게 제1 카메라, 제2 카메라, 및 제3 카메라를 이용하여 복수의 이미지 데이터들을 획득할 수 있고, 각각의 이미지 데이터에서 객체 이미지들을 인식할 수 있다. 일 실시 예에서, 전자 장치는 제2 카메라를 이용하여 획득한 제2 이미지 데이터에서 'b-4' 객체 이미지 및 'b-22' 객체 이미지를 인식할 수 있다. 즉, 전자 장치는 제1 상태(601)에서 인식되었다가 제2 상태(602)에서 인식하지 못했던 'b-4' 객체 이미지를 다시 인식할 수 있다. 일 실시 예에서, 객체 C 및 객체 D가 겹쳐져 있던 상태에서 분리되었기 때문에, 'b-22' 객체 이미지는 객체 D에 대응하는 것으로 인식될 수 있고, 'b-4' 객체 이미지는 객체 C에 대응하는 것으로 인식될 수 있다. 다시 말해, 제2 카메라에서 획득한 제2 이미지 데이터에서 인식되는 객체 이미지들 사이에서 스위칭이 발생할 수 있다.In the third state 603 , the electronic device may acquire a plurality of image data using the first camera, the second camera, and the third camera in the same manner as in the first state 601 and the second state 602 . and object images can be recognized from each image data. In an embodiment, the electronic device may recognize the 'b-4' object image and the 'b-22' object image from the second image data acquired using the second camera. That is, the electronic device may recognize the 'b-4' object image recognized in the first state 601 and not recognized in the second state 602 again. In one embodiment, since the object C and the object D are separated in an overlapping state, the object image 'b-22' may be recognized as corresponding to the object D, and the object image 'b-4' corresponds to the object C can be recognized as In other words, switching may occur between object images recognized in the second image data acquired by the second camera.

일 실시 예에서, 전자 장치는 제3 상태(603)에서 객체 이미지들에 대한 그룹화를 다시 수행할 수 있다. 예를 들어, 전자 장치는 서로 상이한 이미지 데이터에서 인식되고 상호 간의 거리가 지정된 임계 값 보다 작은 'a-22' 객체 이미지, 'b-22' 객체 이미지, 및 'c-17' 객체 이미지를 동일한 객체에 대응하는 것으로 결정할 수 있다. 다른 예를 들어, 전자 장치는 서로 상이한 이미지 데이터에서 인식되고 상호 간의 거리가 지정된 임계 값 보다 작은 ‘a-15’ 객체 이미지, ‘b-4’ 객체 이미지, 및 ‘c-32’ 객체 이미지를 동일한 객체에 대응하는 것으로 결정할 수 있다.In an embodiment, the electronic device may re-group object images in the third state 603 . For example, the electronic device may convert an 'a-22' object image, a 'b-22' object image, and a 'c-17' object image recognized from different image data and having a mutual distance smaller than a specified threshold value to the same object. can be determined to correspond to For another example, the electronic device recognizes the 'a-15' object image, the 'b-4' object image, and the 'c-32' object image that are recognized from different image data and whose mutual distance is smaller than a specified threshold value. It can be determined that it corresponds to an object.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되었기 때문에, 객체 이미지 세트에 대응하는 객체가 어떤 객체인지를 다시 결정할 수 있다. 예를 들면, 전자 장치는 'a-22' 객체 이미지, 'b-22' 객체 이미지, 및 'c-17' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-22’ 객체 이미지 및 ‘c-17’ 객체 이미지는 종래에 객체 C에 대응하는 객체 이미지였고 'b-22' 객체 이미지는 종래에 객체 D에 대응하는 객체 이미지였다. According to an embodiment, since the configuration of the object image set is changed, the electronic device may determine again which object the object corresponding to the object image set is. For example, the electronic device may reset the object to which the object image set including the 'a-22' object image, the 'b-22' object image, and the 'c-17' object image corresponds. In an embodiment, the 'a-22' object image and the 'c-17' object image were conventionally an object image corresponding to object C, and the 'b-22' object image was conventionally an object image corresponding to object D.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되는 경우, 상기 객체 이미지 세트가 대응하는 객체는 과반의 객체 이미지가 종래에 대응하였던 객체인 것으로 설정할 수 있다. 예를 들어, 상기 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지들('a-22' 객체 이미지 및 'c-17' 객체 이미지)이 객체 C에 대응하는 객체 이미지이므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체는 객체 C인 것으로 설정할 수 있다. According to an embodiment, when the configuration of the object image set is changed, the electronic device may set an object to which the object image set corresponds to an object to which a majority of object images have been conventionally. For example, since most of the object images ('a-22' object image and 'c-17' object image) among the object images included in the object image set are object images corresponding to object C, the electronic device The object to which the object image set corresponds may be set to be object C.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되는 경우, 카메라의 우선순위에 기초하여 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다. 예를 들어, 상기 제2 상태(602)에서 제2 카메라의 우선순위는 제1 카메라의 우선순위 및 제3 카메라의 우선순위보다 낮게 설정되었으므로, 전자 장치는 제1 카메라 및 제3 카메라에 기초하여 상기 대응하는 객체를 설정할 수 있다. 일 실시 예에서, 제1 카메라를 이용한 이미지 데이터에서 인식된 'a-22' 객체 이미지 및 제3 카메라를 이용한 이미지 데이터에서 인식된 'c-17' 객체 이미지는 모두 객체 C에 대응하는 객체 이미지였으므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체를 객체 C로 설정할 수 있다.According to an embodiment, when the configuration of the object image set is changed, the electronic device may set the object to which the object image set corresponds based on the priority of the camera. For example, in the second state 602 , the priority of the second camera is set to be lower than the priority of the first camera and the priority of the third camera, so the electronic device is configured based on the first camera and the third camera. The corresponding object can be set. In one embodiment, the object image 'a-22' recognized in the image data using the first camera and the object image 'c-17' recognized in the image data using the third camera were all object images corresponding to object C. , the electronic device may set the object to which the object image set corresponds as object C.

일 실시 예에서, 전자 장치는 ‘a-15’ 객체 이미지, ‘b-4’ 객체 이미지, 및 ‘c-32’ 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체를 다시 설정할 수 있다. 일 실시 예에서, ‘a-15’ 객체 이미지 및 ‘c-32’ 객체 이미지는 종래에 객체 D 대응하는 객체 이미지였고 ‘b-4’ 객체 이미지는 종래에 객체 C에 대응하는 객체 이미지였다. In an embodiment, the electronic device may reset an object to which an object image set including an 'a-15' object image, a 'b-4' object image, and a 'c-32' object image corresponds. In an embodiment, the 'a-15' object image and the 'c-32' object image were conventionally object images corresponding to object D and the 'b-4' object image was conventionally an object image corresponding to object C.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되는 경우, 상기 객체 이미지 세트가 대응하는 객체는 과반의 객체 이미지가 종래에 대응하였던 객체인 것으로 설정할 수 있다. 예를 들어, 상기 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지들('a-15' 객체 이미지 및 'c-32' 객체 이미지)이 객체 D에 대응하는 객체 이미지이므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체는 객체 D인 것으로 설정할 수 있다. According to an embodiment, when the configuration of the object image set is changed, the electronic device may set an object to which the object image set corresponds to an object to which a majority of object images have been conventionally. For example, since most of the object images ('a-15' object image and 'c-32' object image) among the object images included in the object image set are object images corresponding to object D, the electronic device The object to which the object image set corresponds may be set to be object D.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트의 구성이 변경되는 경우, 카메라의 우선순위에 기초하여 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다. 예를 들어, 상기 제2 상태(602)에서 제2 카메라의 우선순위는 제1 카메라의 우선순위 및 제3 카메라의 우선순위보다 낮게 설정되었으므로, 전자 장치는 제1 카메라 및 제3 카메라에 기초하여 상기 대응하는 객체를 설정할 수 있다. 일 실시 예에서, 제1 카메라를 이용한 이미지 데이터에서 인식된 'a-15' 객체 이미지 및 제3 카메라를 이용한 이미지 데이터에서 인식된 'c-32' 객체 이미지는 모두 객체 D에 대응하는 객체 이미지였으므로, 전자 장치는 상기 객체 이미지 세트가 대응하는 객체를 객체 D로 설정할 수 있다.According to an embodiment, when the configuration of the object image set is changed, the electronic device may set the object to which the object image set corresponds based on the priority of the camera. For example, in the second state 602 , the priority of the second camera is set to be lower than the priority of the first camera and the priority of the third camera, so the electronic device is configured based on the first camera and the third camera. The corresponding object can be set. In one embodiment, since the 'a-15' object image recognized in the image data using the first camera and the 'c-32' object image recognized in the image data using the third camera were all object images corresponding to the object D , the electronic device may set the object to which the object image set corresponds as object D.

이에 따라, 객체 C에 대응하는 제3 객체 이미지 세트는 'b-22' 객체 이미지를 더 포함하도록 구성이 변경될 수 있고, 객체 D에 대응하는 제4 객체 이미지 세트는 'b-22' 객체 이미지를 제외하고 'b-4' 객체 이미지를 더 포함하도록 구성이 변경될 수 있다. 또한, 전자 장치는 객체 C에 대한 제3 식별 번호 세트에 대하여, 식별 번호 'b-22'를 더 포함하도록 구성을 변경할 수 있고, 객체 D에 대한 제4 식별 번호 세트에 대하여, 식별 번호 'b-22'를 제외하고 식별 번호 'b-4'를 더 포함하도록 구성을 변경할 수 있다. Accordingly, the configuration of the third object image set corresponding to the object C may be changed to further include the 'b-22' object image, and the fourth object image set corresponding to the object D is the 'b-22' object image. Except for , the configuration may be changed to further include a 'b-4' object image. In addition, the electronic device may change the configuration to further include identification number 'b-22' with respect to the third set of identification numbers for object C, and identification number 'b' for the fourth set of identification numbers for object D Except for -22', the configuration can be changed to further include identification number 'b-4'.

일 실시 예에 따르면, 전자 장치는 제2 카메라에서 객체 C가 객체 D에 겹쳐져 보인 후에 다시 분리되어 나타나고, 이를 통해 객체 이미지들 사이에서 스위칭이 발생하더라도, 객체 이미지 세트들을 업데이트 함으로써 객체 C 및 객체 D의 위치를 정확하게 추적할 수 있다.According to an embodiment, the electronic device separates and appears again after the object C is superimposed on the object D in the second camera, and through this, even if switching between object images occurs, the electronic device updates the object image sets by updating the object image sets. location can be accurately tracked.

도 7a는 일 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체의 식별 번호를 결정하는 방법을 나타낸다. 7A illustrates a method for an electronic device to determine an identification number of an object in a process in which a plurality of objects are overlapped and separated, according to an embodiment.

도 7a를 참조하면, 복수의 객체들이 겹쳐지고 분리되는 과정은 제1 상태(701a), 제2 상태(702a), 및 제3 상태(703a)를 포함하는 과정일 수 있다. 일 실시 예에 따르면, 제1 상태(701a)는 객체 A 및 객체 B가 서로 분리되어 떨어져있는 상태이고, 제2 상태(702a)는 객체 A 및 객체 B가 겹쳐져 있는 상태이고, 제3 상태(703a)는 겹쳐져 있던 객체 A 및 객체 B가 다시 분리된 상태로 이해될 수 있다.Referring to FIG. 7A , a process of overlapping and separating a plurality of objects may be a process including a first state 701a , a second state 702a , and a third state 703a . According to an embodiment, the first state 701a is a state in which the object A and the object B are separated from each other, the second state 702a is a state in which the object A and the object B are overlapped, and the third state 703a ) can be understood as a state in which the overlapping object A and object B are again separated.

일 실시 예에 따르면, 제1 상태(701a)에서, 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-20' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고 제1 객체 이미지 세트에 포함되는 것으로 선택될 수 있다. 일 실시 예에서, 제1 상태(701a)에서, 'a-11' 객체 이미지, 'b-2' 객체 이미지, 및 'c-16' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고 제2 객체 이미지 세트에 포함되는 것으로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제1 객체 이미지 세트에 대응하는 객체는 객체 A인 것으로 설정할 수 있고, 상기 제2 객체 이미지 세트에 대응하는 객체는 객체 B인 것으로 설정할 수 있다.According to an embodiment, in the first state 701a, the 'a-14' object image, the 'b-7' object image, and the 'c-20' object image may be determined to correspond to the same object, and the first may be selected to be included in the object image set. In an embodiment, in the first state 701a, the 'a-11' object image, the 'b-2' object image, and the 'c-16' object image may be determined to correspond to the same object and the second object may be selected for inclusion in the image set. In an embodiment, the electronic device may set the object corresponding to the first object image set as object A, and the electronic device may set the object corresponding to the second object image set as object B.

일 실시 예에 따르면, 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 제2 객체 이미지 세트에 포함되는 객체 이미지들은, 제2 상태(702a)에서 지정된 범위 내에 모여있을 수 있고, 제3 상태(703a)에서 다시 재분리 될 수 있다.According to an embodiment, the object images included in the first object image set and the object images included in the second object image set may be clustered within a range specified in the second state 702a, and the third state 703a ) can be re-separated from

일 실시 예에 따르면, 제3 상태(703a)에서, 객체 이미지들 사이의 스위칭이 발생할 수 있다. 예를 들면, 도 7a에 도시된 바와 같이, 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-16' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고, 'a-11' 객체 이미지, 'b-2' 객체 이미지, 및 'c-20' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있다. 이 경우, 제3 카메라를 이용하여 획득된 이미지 데이터에서 인식된 'c-16' 객체 이미지 및 'c-20' 객체 이미지는 서로 스위칭 된 것으로 이해될 수 있다.According to an embodiment, in the third state 703a, switching between object images may occur. For example, as shown in FIG. 7A , the 'a-14' object image, the 'b-7' object image, and the 'c-16' object image may be determined to correspond to the same object, and 'a- 11' object image, 'b-2' object image, and 'c-20' object image may be determined to correspond to the same object. In this case, it may be understood that the 'c-16' object image and the 'c-20' object image recognized in the image data obtained using the third camera are switched to each other.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트가 업데이트됨에 따라 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되었으므로, 객체 이미지 세트가 대응하는 객체(객체 X 및 객체 Y)를 재설정할 수 있다. 예를 들어, 전자 장치는 복수의 카메라들 각각의 우선순위에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 재설정할 수 있다. 이 경우, 객체 이미지 세트에 포함되는 적어도 하나의 객체 이미지가 인식되지 않는 것으로 변경되는 경우, 상기 적어도 하나의 객체 이미지에 대응하는 카메라의 우선순위는 나머지 카메라들의 우선순위보다 낮게 설정될 수 있다. 다른 예를 들어, 전자 장치는 과반의 객체 이미지가 대응하는 객체에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 재설정할 수 있다. 일 실시 예에서, 전자 장치는 상기 복수의 카메라들의 우선순위에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 설정하고, 상기 복수의 카메라들의 우선순위가 모두 동일할 경우에 한하여, 상기 과반의 객체 이미지가 대응하는 객체에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다.According to an embodiment, since the configuration of object images included in the object image set is changed as the object image set is updated, the electronic device may reset objects (object X and object Y) corresponding to the object image set. For example, the electronic device may reset the object to which the object image set corresponds based on the priority of each of the plurality of cameras. In this case, when at least one object image included in the object image set is changed to unrecognized, the priority of the camera corresponding to the at least one object image may be set lower than that of the remaining cameras. As another example, the electronic device may reset the object to which the object image set corresponds, based on the object to which the majority of object images correspond. In an embodiment, the electronic device sets an object corresponding to the object image set based on the priorities of the plurality of cameras, and only when the priorities of the plurality of cameras are all the same, the majority of the object images The object image set may set the corresponding object based on the corresponding object.

일 실시 예에 따르면, 도 7a에 도시된 과정에서 인식되었던 객체 이미지가 인식되지 않는 것으로 변경되는 상황은 발생하지 않았으므로, 복수의 카메라들 사이의 우선순위는 모두 동일한 것으로 판단될 수 있다. 일 실시 예에 따르면, 전자 장치는 'a-14' 객체 이미지, 'b-7' 객체 이미지, 및 'c-16' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체 X에 대하여, 과반의 객체 이미지들('a-14' 객체 이미지 및 'b-7' 객체 이미지)이 대응하는 객체는 객체 A 이므로, 상기 객체 X는 객체 A인 것으로 설정할 수 있다. 다른 실시 예에 따르면, 전자 장치는 'a-11' 객체 이미지, 'b-2' 객체 이미지, 및 'c-20' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체 Y에 대하여, 과반의 객체 이미지들('a-11' 객체 이미지 및 'b-2' 객체 이미지)이 대응하는 객체는 객체 B 이므로, 상기 객체 Y는 객체 B인 것으로 설정할 수 있다.According to an embodiment, since the situation in which the object image recognized in the process shown in FIG. 7A is changed to unrecognized does not occur, it may be determined that the priorities among the plurality of cameras are all the same. According to an embodiment, the electronic device determines that, with respect to an object X to which an object image set including an 'a-14' object image, a 'b-7' object image, and an 'c-16' object image corresponds, the majority of objects Since the object to which the images ('a-14' object image and 'b-7' object image) correspond is object A, the object X may be set to be object A. According to another embodiment, in the electronic device, with respect to the object Y corresponding to the object image set including the 'a-11' object image, the 'b-2' object image, and the 'c-20' object image, the majority of objects Since the object to which the images ('a-11' object image and 'b-2' object image) correspond is object B, the object Y may be set as object B.

도 7b는 다른 실시 예에 따른, 전자 장치가, 복수의 객체들이 겹쳐지고 분리되는 과정에서, 객체의 식별 번호를 결정하는 방법을 나타낸다.7B illustrates a method of determining, by an electronic device, an identification number of an object while overlapping and separating a plurality of objects, according to another exemplary embodiment.

도 7b를 참조하면, 복수의 객체들이 겹쳐지고 분리되는 과정은 제1 상태(701b), 제2 상태(702b), 및 제3 상태(703b)를 포함하는 과정일 수 있다. 일 실시 예에 따르면, 제1 상태(701b)는 객체 A 및 객체 B가 서로 분리되어 떨어져있는 상태이고, 제2 상태(702b)는 객체 A 및 객체 B가 겹쳐져 있는 상태이고, 제3 상태(703b)는 겹쳐져 있던 객체 A 및 객체 B가 다시 분리된 상태로 이해될 수 있다.Referring to FIG. 7B , a process of overlapping and separating a plurality of objects may be a process including a first state 701b , a second state 702b , and a third state 703b . According to an embodiment, the first state 701b is a state in which the object A and the object B are separated from each other, the second state 702b is a state in which the object A and the object B are overlapped, and the third state 703b ) can be understood as a state in which the overlapping object A and object B are again separated.

일 실시 예에 따르면, 제1 상태(701b)에서, 'a-14' 객체 이미지 및 'b-7' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고 제1 객체 이미지 세트에 포함되는 것으로 선택될 수 있다. 일 실시 예에서, 제1 상태(701b)에서, 'a-11' 객체 이미지 및 'b-2' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고 제2 객체 이미지 세트에 포함되는 것으로 선택될 수 있다. 일 실시 예에서, 전자 장치는 상기 제1 객체 이미지 세트에 대응하는 객체는 객체 A인 것으로 설정할 수 있고, 상기 제2 객체 이미지 세트에 대응하는 객체는 객체 B인 것으로 설정할 수 있다.According to an embodiment, in the first state 701b, the 'a-14' object image and the 'b-7' object image may be determined to correspond to the same object and be selected to be included in the first object image set. can In an embodiment, in the first state 701b, the 'a-11' object image and the 'b-2' object image may be determined to correspond to the same object and selected to be included in the second object image set. have. In an embodiment, the electronic device may set the object corresponding to the first object image set as object A, and the electronic device may set the object corresponding to the second object image set as object B.

일 실시 예에 따르면, 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 제2 객체 이미지 세트에 포함되는 객체 이미지들은, 제2 상태(702b)에서 지정된 범위 내에 모여있을 수 있고, 제3 상태(703b)에서 다시 재분리 될 수 있다. 일 실시 예에서, 제2 상태(702b)에서 객체 A 및 객체 B는 겹쳐져 있는 상태이므로 제2 카메라를 이용하여 획득된 이미지 데이터에서는 'b-2' 객체 이미지는 인식되고 'b-7' 객체 이미지는 인식되지 않을 수 있다.According to an embodiment, the object images included in the first object image set and the object images included in the second object image set may be clustered within a range specified in the second state 702b, and may be collected in the third state 703b. ) can be re-separated from In one embodiment, in the second state 702b, object A and object B are in an overlapping state, so in the image data acquired using the second camera, the 'b-2' object image is recognized and the 'b-7' object image may not be recognized.

일 실시 예에 따르면, 제3 상태(703b)에서, 객체 이미지들 사이의 스위칭이 발생할 수 있다. 예를 들면, 도 7a에 도시된 바와 같이, 'a-14' 객체 이미지 및 'b-2' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있고, 'a-11' 객체 이미지 및 'b-7' 객체 이미지는 동일한 객체에 대응하는 것으로 결정될 수 있다. 이 경우, 제2 카메라를 이용하여 획득된 이미지 데이터에서 인식된 'b-2' 객체 이미지 및 'b-7' 객체 이미지는 서로 스위칭 된 것으로 이해될 수 있다.According to an embodiment, in the third state 703b, switching between object images may occur. For example, as shown in FIG. 7A , object image 'a-14' and object image 'b-2' may be determined to correspond to the same object, and object image 'a-11' and object image 'b-7' may be determined to correspond to the same object. ' The object image may be determined to correspond to the same object. In this case, it may be understood that the 'b-2' object image and the 'b-7' object image recognized in the image data acquired using the second camera are switched to each other.

일 실시 예에 따르면, 전자 장치는 객체 이미지 세트가 업데이트됨에 따라 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되었으므로, 객체 이미지 세트가 대응하는 객체(객체 X 및 객체 Y)를 재설정할 수 있다. 예를 들어, 전자 장치는 복수의 카메라들 각각의 우선순위에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 재설정할 수 있다. 이 경우, 객체 이미지 세트에 포함되는 적어도 하나의 객체 이미지가 인식되지 않는 것으로 변경되는 경우, 상기 적어도 하나의 객체 이미지에 대응하는 카메라의 우선순위는 나머지 카메라들의 우선순위보다 낮게 설정될 수 있다. 다른 예를 들어, 전자 장치는 과반의 객체 이미지가 대응하는 객체에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 재설정할 수 있다. 일 실시 예에서, 전자 장치는 상기 복수의 카메라들의 우선순위에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 설정하고, 상기 복수의 카메라들의 우선순위가 모두 동일할 경우에 한하여, 상기 과반의 객체 이미지가 대응하는 객체에 기초하여 상기 객체 이미지 세트가 대응하는 객체를 설정할 수도 있다.According to an embodiment, since the configuration of object images included in the object image set is changed as the object image set is updated, the electronic device may reset objects (object X and object Y) corresponding to the object image set. For example, the electronic device may reset the object to which the object image set corresponds based on the priority of each of the plurality of cameras. In this case, when at least one object image included in the object image set is changed to unrecognized, the priority of the camera corresponding to the at least one object image may be set lower than that of the remaining cameras. As another example, the electronic device may reset the object to which the object image set corresponds, based on the object to which the majority of object images correspond. In an embodiment, the electronic device sets an object corresponding to the object image set based on the priorities of the plurality of cameras, and only when the priorities of the plurality of cameras are all the same, the majority of the object images The object image set may set the corresponding object based on the corresponding object.

일 실시 예에 따르면, 도 7b에 도시된 과정에서 'b-2' 객체 이미지가 제2 상태(702b)에서 인식되지 않는 상황이 발생하였으므로, 전자 장치는 'b-2' 객체 이미지에 대응하는 제2 카메라의 우선순위를 제1 카메라의 우선순위 보다 낮게 설정할 수 있다. 일 실시 예에 따르면, 전자 장치는 우선순위가 가장 높은 제1 카메라에 기초하여 객체 이미지 세트가 대응하는 객체를 설정할 수 있다. 예를 들어, 전자 장치는 'a-14' 객체 이미지 및 'b-2' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체 X에 대하여, 제1 카메라를 이용하여 획득된 이미지 데이터에서 인식된 'a-14' 객체 이미지가 대응하는 객체는 객체 A 이므로, 상기 객체 X는 객체 A인 것으로 설정할 수 있다. 다른 예를 들어, 전자 장치는 'a-11' 객체 이미지 및 'b-7' 객체 이미지를 포함하는 객체 이미지 세트가 대응하는 객체 Y에 대하여, 제1 카메라를 이용하여 획득된 이미지 데이터에서 인식된 'a-11' 객체 이미지가 대응하는 객체는 객체 B 이므로, 상기 객체 Y는 객체 B인 것으로 설정할 수 있다.According to an embodiment, in the process illustrated in FIG. 7B , a situation in which the 'b-2' object image is not recognized in the second state 702b occurs, so that the electronic device displays the second object image corresponding to the 'b-2' object image. The priority of the second camera may be set lower than the priority of the first camera. According to an embodiment, the electronic device may set an object to which an object image set corresponds, based on the first camera having the highest priority. For example, the electronic device may determine 'recognized from image data obtained using the first camera for object X to which the object image set including the object image 'a-14' and the object image 'b-2' corresponds to. Since the object to which the a-14' object image corresponds is object A, the object X may be set to be object A. For another example, the electronic device recognizes the object Y from the image data acquired using the first camera to which the object image set including the 'a-11' object image and the 'b-7' object image corresponds. Since the object to which the 'a-11' object image corresponds is object B, the object Y may be set as object B.

도 8은 일 실시 예에 따른, 전자 장치가 복수의 카메라들 각각 및 인식된 객체 사이의 거리에 기초하여 인식된 객체의 위치를 결정하는 방법을 나타낸다.8 illustrates a method for an electronic device to determine a position of a recognized object based on a distance between each of a plurality of cameras and the recognized object, according to an embodiment.

도 8을 참조하면, 전자 장치는 제1 카메라(111)를 이용하여 제1 객체 이미지(810)를 인식하고, 제2 카메라(112)를 이용하여 제2 객체 이미지(820)를 인식하고, 제3 카메라(113)를 이용하여 제3 객체 이미지(830)를 인식할 수 있다. 일 실시 예에 따르면, 제1 객체 이미지(810), 제2 객체 이미지(820), 및 제3 객체 이미지(830)는 동일한 객체에 대응하는 객체 이미지들로 선택될 수 있고, 제1 객체 이미지(810) 세트에 포함되는 객체 이미지들로 선택될 수 있다. 일 실시 예에서, 제1 객체 이미지(810) 세트가 대응하는 객체는 도 8에 도시된 바와 같이 객체 A로 설정될 수 있다.Referring to FIG. 8 , the electronic device recognizes a first object image 810 using a first camera 111 , recognizes a second object image 820 using a second camera 112 , and 3 The third object image 830 may be recognized using the camera 113 . According to an embodiment, the first object image 810 , the second object image 820 , and the third object image 830 may be selected as object images corresponding to the same object, and the first object image ( 810) may be selected as object images included in the set. In an embodiment, the object to which the first object image 810 set corresponds may be set as object A as shown in FIG. 8 .

일 실시 예에 따르면, 전자 장치는 도 8에 도시된 바와 같이, 제1 객체 이미지(810), 제2 객체 이미지(820), 및 제3 객체 이미지(830)를 타겟 영역에 대한 단일 평면 상에 매핑할 수 있다. 일 실시 예에서, 제1 객체 이미지(810)의 위치는 제1 카메라(111)의 위치로부터 제1 거리(811)만큼 떨어져 있을 수 있고, 제2 객체 이미지(820)의 위치는 제2 카메라(112)의 위치로부터 제2 거리(821)만큼 떨어져 있을 수 있고, 제3 객체 이미지(830)의 위치는 제3 카메라(113)의 위치로부터 제3 거리(831)만큼 떨어져 있을 수 있다. 다양한 실시 예에서, 제2 거리(821)는 제1 거리(811)보다 길고, 제3 거리(831)는 제2 거리(821)보다 길 수 있으나, 제1 거리(811), 제2 거리(821), 및 제3 거리(831)의 길이 순서는 도 8에 도시된 바에 한정되지 않는다.According to an embodiment, as shown in FIG. 8 , the electronic device displays the first object image 810 , the second object image 820 , and the third object image 830 on a single plane with respect to the target area. can be mapped. In an embodiment, the position of the first object image 810 may be separated by a first distance 811 from the position of the first camera 111 , and the position of the second object image 820 may be separated from the position of the second camera 111 . The second distance 821 may be separated from the position of the 112 , and the position of the third object image 830 may be separated from the position of the third camera 113 by a third distance 831 . In various embodiments, the second distance 821 may be longer than the first distance 811 and the third distance 831 may be longer than the second distance 821 , but the first distance 811, the second distance ( 821 ) and the order of the lengths of the third distance 831 are not limited to those illustrated in FIG. 8 .

다양한 실시 예에 따르면, 객체 이미지의 위치에 대한 정확도는 각각의 객체 이미지가 대응하는 카메라와의 거리가 짧을수록 높을 수 있다. 예를 들어, 제1 거리(811)는 제2 거리(821)보다 짧으므로, 제1 객체 이미지(810)의 위치의 정확도는 제2 객체 이미지(820)의 위치의 정확도보다 높을 수 있다. 다른 예를 들어, 제2 거리(821)는 제3 거리(831)보다 짧으므로, 제2 객체 이미지(820)의 위치의 정확도는 제3 객체 이미지(830)의 위치의 정확도보다 높을 수 있다.According to various embodiments, the accuracy of the position of the object image may be higher as the distance between the respective object images and the corresponding camera is shorter. For example, since the first distance 811 is shorter than the second distance 821 , the accuracy of the position of the first object image 810 may be higher than that of the second object image 820 . For another example, since the second distance 821 is shorter than the third distance 831 , the accuracy of the location of the second object image 820 may be higher than the accuracy of the location of the third object image 830 .

일 실시 예에 따르면, 전자 장치는 복수의 카메라들(111, 112, 113)을 이용하여 획득한 이미지 데이터들에서 각각의 객체 이미지가 떨어진 거리에 대한 정보를 획득할 수 있다. 예를 들면, 전자 장치는 각각의 이미지 데이터들에서 복수의 객체 이미지들을 인식하고, 상기 복수의 객체 이미지들 사이의 상대적 거리를 이용함으로써 각각의 객체 이미지가 카메라로부터 떨어진 거리를 획득할 수 있다.According to an embodiment, the electronic device may acquire information on a distance from which each object image is separated from image data acquired using the plurality of cameras 111 , 112 , and 113 . For example, the electronic device may recognize a plurality of object images from respective image data and obtain a distance from the camera to each object image by using a relative distance between the plurality of object images.

일 실시 예에 따르면, 전자 장치는 객체 이미지들이 각각 대응하는 카메라로부터 떨어진 거리에 기초하여 객체 이미지들 각각에 대한 가중치를 결정할 수 있다. 예를 들어, 전자 장치는 객체 이미지가 카메라로부터 멀리 떨어져 있을수록 가중치를 낮게 결정할 수 있다. 다른 예를 들어, 전자 장치는 객체 이미지가 카메라로부터 가깝게 떨어져 있을수록 가중치를 높게 결정할 수 있다. 일 실시 예에서, 제1 거리(811)는 제2 거리(821)보다 짧으므로 제1 객체 이미지(810)에 대한 가중치는 제2 객체 이미지(820)에 대한 가중치보다 높게 결정될 수 있고, 제2 거리(821)는 제3 거리(831)보다 짧으므로 제2 객체 이미지(820)에 대한 가중치는 제3 객체 이미지(830)에 대한 가중치보다 높게 설정될 수 있다.According to an embodiment, the electronic device may determine a weight for each of the object images based on a distance from a camera to which the object images respectively correspond. For example, the electronic device may determine the weight to be lower as the object image is further away from the camera. As another example, the electronic device may determine the weight to be higher as the object image is further away from the camera. In an embodiment, since the first distance 811 is shorter than the second distance 821 , the weight for the first object image 810 may be determined to be higher than the weight for the second object image 820 , and Since the distance 821 is shorter than the third distance 831 , the weight of the second object image 820 may be set higher than the weight of the third object image 830 .

일 실시 예에 따르면, 전자 장치는 객체 A에 대응하는 객체 이미지들의 위치, 예컨대, 제1 객체 이미지(810)의 위치, 제2 객체 이미지(820)의 위치, 및 제3 객체 이미지(830)의 위치에 기초하여, 객체 A의 위치를 결정할 수 있다. 일 실시 예에 따르면, 전자 장치는 객체 A에 대응하는 객체 이미지들의 가중치, 예컨대, 제1 객체 이미지(810)의 가중치, 제2 객체 이미지(820)의 가중치, 및 제3 객체 이미지(830)의 가중치에 기초하여 객체 A의 위치를 결정할 수 있다. According to an embodiment, the electronic device determines the positions of object images corresponding to object A, for example, the position of the first object image 810 , the position of the second object image 820 , and the position of the third object image 830 . Based on the location, the location of object A may be determined. According to an embodiment, the electronic device determines the weights of the object images corresponding to the object A, for example, the weight of the first object image 810 , the weight of the second object image 820 , and the weight of the third object image 830 . The position of object A may be determined based on the weight.

일 실시 예에서, 전자 장치는 제1 객체 이미지(810)의 위치에 제1 가중치를 적용함으로써 제1 객체 이미지(810)의 조정 위치를 획득할 수 있고, 제2 객체 이미지(820)의 위치에 제2 가중치를 적용함으로써 제2 객체 이미지(820)의 조정 위치를 획득할 수 있고, 제3 객체 이미지(830)의 위치에 제3 가중치를 적용함으로써 제3 객체 이미지(830)의 조정 위치를 획득할 수 있다. 전자 장치는 제1 객체 이미지(810)의 조정 위치, 제2 객체 이미지(820)의 조정 위치, 및 제3 객체 이미지(830)의 조정 위치에 기초하여 객체 A의 위치를 결정할 수 있다. 예를 들어, 전자 장치는 제1 객체 이미지(810)의 조정 위치, 제2 객체 이미지(820)의 조정 위치, 및 제3 객체 이미지(830)의 조정 위치의 평균 위치를 객체 A의 위치로 결정할 수 있다.In an embodiment, the electronic device may acquire the adjusted position of the first object image 810 by applying a first weight to the position of the first object image 810 , and The adjustment position of the second object image 820 may be obtained by applying the second weight, and the adjustment position of the third object image 830 may be obtained by applying the third weight to the position of the third object image 830 . can do. The electronic device may determine the position of the object A based on the adjusted position of the first object image 810 , the adjusted position of the second object image 820 , and the adjusted position of the third object image 830 . For example, the electronic device determines the average position of the adjusted position of the first object image 810 , the adjusted position of the second object image 820 , and the adjusted position of the third object image 830 as the position of the object A. can

도 9는 일 실시 예에 따른, 전자 장치의 블록도를 나타낸다.9 is a block diagram of an electronic device, according to an embodiment.

도 9를 참조하면, 전자 장치(900)는 카메라 모듈(910), 프로세서(920), 및 메모리(930)를 포함할 수 있다. 일 실시 예에 따르면, 카메라 모듈(910)은 복수의 카메라 예컨대, 제1 카메라(911), 제2 카메라(912), 및 제3 카메라(913)를 포함할 수 있다. 카메라 모듈(910)에 포함되는 카메라의 개수는 도 9에 도시된 바에 한정되지 않는다. 다양한 실시 예에 따르면, 전자 장치(900)의 구성은 도 9에 도시된 바에 한정되지 않으며, 도 9에 도시된 구성 중 일부를 생략하거나 도 9에 도시되지 않은 구성을 더 포함할 수도 있다. 예를 들어, 전자 장치(900)는 카메라 모듈(910)에 포함되는 복수의 카메라들(911, 912, 913) 중 일부를 생략할 수도 있고, 상기 생략된 카메라는 전자 장치(900) 외부의 다른 전자 장치(900)에 포함될 수 있다. 이 경우, 전자 장치(900)는 상기 다른 전자 장치(900)와 전기적으로 통신함으로써 상기 다른 전자 장치(900)에 포함되는 카메라로부터 이미지 데이터를 획득할 수 있다.Referring to FIG. 9 , the electronic device 900 may include a camera module 910 , a processor 920 , and a memory 930 . According to an embodiment, the camera module 910 may include a plurality of cameras, for example, a first camera 911 , a second camera 912 , and a third camera 913 . The number of cameras included in the camera module 910 is not limited to that shown in FIG. 9 . According to various embodiments, the configuration of the electronic device 900 is not limited to that shown in FIG. 9 , and some of the configurations shown in FIG. 9 may be omitted or a configuration not shown in FIG. 9 may be further included. For example, the electronic device 900 may omit some of the plurality of cameras 911 , 912 , and 913 included in the camera module 910 , and the omitted camera may be selected from another external device outside the electronic device 900 . It may be included in the electronic device 900 . In this case, the electronic device 900 may acquire image data from a camera included in the other electronic device 900 by electrically communicating with the other electronic device 900 .

일 실시 예에 따르면, 카메라 모듈(910)에 포함되는 제1 카메라(911), 제2 카메라(912), 및 제3 카메라(913)는 서로 상이한 위치에서 타겟 영역을 촬영할 수 있다. 예를 들어, 제1 카메라(911)는 상기 타겟 영역을 제1 위치에서 촬영할 수 있고, 제2 카메라(912)는 상기 타겟 영역을 제2 위치에서 촬영할 수 있고, 제3 카메라(913)는 상기 타겟 영역을 제3 위치에서 촬영할 수 있다. 일 실시 예에서, 상기 제1 위치, 상기 제2 위치, 및 상기 제3 위치는 상기 타겟 영역의 중심을 기준으로 지정된 각도 이상 떨어져 있을 수 있다. 예를 들어, 상기 제1 위치, 상기 타겟 영역의 중심, 상기 제2 위치가 이루는 각도는 상기 지정된 각도 이상일 수 있고, 상기 제2 위치, 상기 타겟 영역의 중심, 상기 제3 위치가 이루는 각도는 상기 지정된 각도 이상일 수 있고, 상기 제3 위치, 상기 타겟 영역의 중심, 상기 제1 위치가 이루는 각도는 상기 지정된 각도 이상일 수 있다. 다양한 실시 예에서, 카메라 모듈(910)에 포함되는 복수의 카메라들(911, 912, 913)에서 촬영됨으로써 획득된 이미지 데이터는 프로세서(920)로 전달될 수 있다.According to an embodiment, the first camera 911 , the second camera 912 , and the third camera 913 included in the camera module 910 may photograph the target area at different positions. For example, the first camera 911 may photograph the target area at a first location, the second camera 912 may photograph the target area at a second location, and the third camera 913 may photograph the target area at a second location. The target area may be photographed at a third location. In an embodiment, the first location, the second location, and the third location may be spaced apart from each other by a predetermined angle or more with respect to the center of the target area. For example, the angle formed by the first position, the center of the target region, and the second position may be equal to or greater than the specified angle, and the angle formed by the second position, the center of the target region, and the third position is the The angle may be greater than or equal to a specified angle, and the angle formed by the third position, the center of the target area, and the first position may be equal to or greater than the specified angle. In various embodiments, image data acquired by being photographed by the plurality of cameras 911 , 912 , and 913 included in the camera module 910 may be transmitted to the processor 920 .

일 실시 예에 따르면, 프로세서(920)는 전자 장치(900)의 다른 구성 요소들과 전기적으로 연결됨으로써 다른 구성 요소들에 대한 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 다양한 실시 예에 따르면, 프로세서(920)는 CPU(central processing unit), AP(application processor), GPU(graphic processing unit), 또는 NPU(neural processing unit) 중 적어도 하나를 포함할 수 있다.According to an embodiment, the processor 920 may be electrically connected to other components of the electronic device 900 to execute operations or data processing related to control and/or communication of the other components. According to various embodiments, the processor 920 may include at least one of a central processing unit (CPU), an application processor (AP), a graphic processing unit (GPU), or a neural processing unit (NPU).

일 실시 예에 따르면, 프로세서(920)는 카메라 모듈(910)에서 전달된 복수의 이미지 데이터를 이용하여, 객체 이미지들을 인식하고, 인식된 객체 이미지들에 대한 처리를 실행할 수 있다. 예를 들어, 프로세서(920)는 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택할 수 있고, 상기 객체 이미지들이 대응하는 객체를 제1 객체로 설정할 수 있다. 프로세서(920)는 제1 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트함으로써 상기 제1 객체의 위치를 추적할 수 있다.According to an embodiment, the processor 920 may recognize object images by using a plurality of image data transmitted from the camera module 910 and execute processing on the recognized object images. For example, the processor 920 may select object images determined to correspond to the same object among the recognized object images as the first object image set, and set the object to which the object images correspond to the first object. have. The processor 920 may track the location of the first object by updating object images included in the first object image set.

일 실시 예에 따르면, 프로세서(920)는 복수의 객체 이미지들에 대한 단일의 동일한 좌표계, 예컨대, 단일 평면에 대한 좌표계로의 매핑을 수행할 수도 있고, 지정된 조건을 만족하는 객체 이미지들에 대한 그룹화를 수행할 수도 있다. 일 실시 예에 따르면, 프로세서(920)는 객체 이미지들의 위치를 지정된 시간 간격에 따라 업데이트함으로써, 제1 객체 이미지 세트에 포함되는 객체 이미지들을 업데이트할 수도 있다. 일 실시 예에 따르면, 프로세서(920)는 제1 객체 이미지 세트에 포함되는 객체 이미지들의 식별번호에 기초하여 제1 객체에 대응하는 제1 식별 번호 세트를 획득할 수도 있다. 일 실시 예에 따르면, 프로세서(920)는 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 제1 객체 이미지 세트가 대응하는 객체를 재설정할 수도 있다. 일 실시 예에 따르면, 프로세서(920)는 객체 이미지들의 위치에 기초하여 객체 이미지들의 가중치를 결정할 수도 있고, 객체 이미지들의 위치 및 상기 결정된 가중치에 기초하여 객체 이미지들이 대응하는 객체의 위치를 결정할 수도 있다.According to an embodiment, the processor 920 may perform mapping of a plurality of object images to a single and identical coordinate system, for example, a coordinate system for a single plane, and group object images satisfying a specified condition. can also be performed. According to an embodiment, the processor 920 may update the object images included in the first object image set by updating the positions of the object images according to a specified time interval. According to an embodiment, the processor 920 may obtain a first set of identification numbers corresponding to the first object based on identification numbers of object images included in the first object image set. According to an embodiment, when the configuration of object images included in the first object image set is changed, the processor 920 may reset the object corresponding to the first object image set. According to an embodiment, the processor 920 may determine the weights of the object images based on the positions of the object images, and may determine the positions of objects to which the object images correspond based on the positions of the object images and the determined weights. .

일 실시 예에 따르면, 메모리(930)는 전자 장치(900)의 적어도 하나의 구성요소에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어 및 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(930)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.According to an embodiment, the memory 930 may store various data used by at least one component of the electronic device 900 . Data may include, for example, input data or output data for software and related instructions. The memory 930 may include a volatile memory or a non-volatile memory.

일 실시 예에 따르면, 메모리(930)는 프로세서(920)에서 실행됨으로써 프로세서(920)가 실행하는 동작을 수행하기 위한 프로그램들을 저장할 수 있으며, 상기 프로그램들의 실행에 따라 생성되거나 산출되는 데이터를 저장할 수도 있다. 예를 들어, 메모리(930)는 프로세서(920)가 획득한 이미지 데이터, 이미지 데이터에서 인식된 객체 이미지에 대한 정보, 상기 정보를 이용하여 산출되는 다양한 데이터를 저장할 수 있다.According to an embodiment, the memory 930 may store programs for performing an operation executed by the processor 920 by being executed by the processor 920, and may store data generated or calculated according to the execution of the programs. have. For example, the memory 930 may store image data acquired by the processor 920 , information on an object image recognized from the image data, and various data calculated using the information.

본 문서에 개시되는 일 실시 예에 따른 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법은, 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하는 단계, 상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하는 단계, 상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 단계, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하는 단계, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하는 단계, 및 상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하는 단계를 포함하는 것을 특징으로 할 수 있다.A method of tracking the location of an arbitrary object included in a target area according to an embodiment disclosed in this document uses a plurality of cameras to acquire a plurality of image data captured at different locations with respect to the target area recognizing object images corresponding to one or more objects included in the target region from the plurality of image data, and first recognizing object images determined to correspond to the same object among the recognized object images. selecting as an object image set, setting an object to which the first object image set corresponds to a first object, and determining the position of the first object based on the positions of object images included in the first object image set Determining, and storing the object images included in the first object image set and time information related to the object images.

일 실시 예에 따르면, 상기 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 상기 단계는, 상기 복수의 이미지 데이터들에서 인식된 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑하는 단계 및 상기 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서, 서로 상이한 카메라를 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들을 상기 동일한 객체에 대응하는 것으로 결정하는 단계를 포함하는 것을 특징으로 할 수 있다.According to an embodiment, the selecting of the object images determined to correspond to the same object as a first object image set includes selecting the object images recognized from the plurality of image data in a single coordinate system ( coordinate system) and object images recognized from image data acquired using different cameras from among the object images whose mutual distance is smaller than a specified threshold value among the mapped object images, the same object It may be characterized in that it comprises the step of determining to correspond to.

일 실시 예에 따르면, 상기 매핑된 객체 이미지들 중 상호 간의 거리가 상기 지정된 임계 값보다 작은 상기 객체 이미지들 중에서, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서 인식된 객체 이미지들이 둘 이상인 경우, 상기 제1 카메라를 제외한 나머지 카메라들을 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들은 상기 동일한 객체에 대응하는 것으로 결정될 수 있다.According to an embodiment, when there are two or more object images recognized from the first image data obtained using the first camera among the object images whose mutual distance is smaller than the specified threshold value among the mapped object images , object images recognized from image data obtained by using the remaining cameras except for the first camera may be determined to correspond to the same object.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지가 상기 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들로부터 상기 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 제외하도록 구성이 변경될 수 있다.According to an embodiment, after selecting at least a first object image as the first object image set, the first object image is a distance smaller than the specified threshold value from the remaining object images included in the first object image set When it does not exist within the area range of , the configuration of the first object image set may be changed to exclude the first object image.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트가 상기 제1 객체 이미지를 제외하도록 구성이 변경된 이후에, 상기 나머지 객체 이미지들과의 거리가 상기 지정된 임계 값 보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제2 객체 이미지를 포함하도록 구성이 변경될 수 있다.According to an embodiment, after the configuration of the first object image set is changed to exclude the first object image, a second object image having a distance from the remaining object images smaller than the specified threshold value is set to the first object image. When recognized from the first image data corresponding to the object image, the configuration of the first object image set may be changed to include the second object image.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들과의 거리가 상기 지정된 임계 값보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 포함하고 상기 제2 객체 이미지를 제외하도록 구성이 변경될 수 있다.According to an embodiment, after selecting at least a first object image as the first object image set, a second object image having a distance from object images included in the first object image set is smaller than the specified threshold value When recognized from the first image data corresponding to the first object image, the configuration of the first object image set may be changed to include the first object image and exclude the second object image.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 복수의 카메라들 중 우선순위가 가장 높은 카메라를 이용하여 획득된 이미지 데이터에서 인식된 객체 이미지가 대응하는 객체로 재설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed, the object corresponding to the first object image set uses the highest priority camera among the plurality of cameras. An object image recognized in the acquired image data may be reset to a corresponding object.

일 실시 예에서, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 적어도 일부가 제외되도록 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제외된 적어도 일부의 객체 이미지에 대응하는 카메라의 우선순위는 상기 복수의 카메라들 중 나머지 카메라의 우선순위보다 낮게 설정될 수 있다.In one embodiment, when the configuration of the object images included in the first object image set is changed so that at least some of the object images included in the first object image set are changed, the excluded at least some object images The priority of the corresponding camera may be set lower than the priority of the remaining cameras among the plurality of cameras.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지가 대응하는 객체로 재설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed, the object to which the first object image set corresponds is a majority of the object images included in the first object image set The object image may be reset to the corresponding object.

일 실시 예에 따르면, 상기 방법은, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대응하는 식별 번호들에 기초하여, 상기 제1 객체에 대응하는 제1 식별 번호 세트를 획득하는 단계를 더 포함할 수 있다. According to an embodiment, the method includes, based on identification numbers corresponding to each of the object images included in the first object image set, obtaining a first set of identification numbers corresponding to the first object may include more.

일 실시 예에 따르면, 상기 제1 객체의 위치를 결정하는 상기 단계는, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계 상에 매핑하는 단계, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대하여, 대응하는 카메라로부터의 거리를 각각 획득하는 단계, 상기 획득된 거리에 기초하여, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대한 가중치를 결정하는 단계, 및 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 상기 결정된 가중치에 기초하여, 상기 단일 좌표계 상에서 상기 제1 객체의 위치를 결정하는 단계를 더 포함하는 것을 특징으로 할 수 있다.According to an embodiment, the determining of the position of the first object may include mapping object images included in the first object image set on a single coordinate system with respect to the target area, the first object image set Obtaining a distance from a corresponding camera for each of the object images included in , and determining a weight for each of the object images included in the first object image set based on the obtained distance , and based on the object images included in the first object image set and the determined weight, determining the position of the first object on the single coordinate system may further include.

본 문서에 개시되는 일 실시 예에 따른 타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 전자 장치는, 서로 상이한 위치에서 상기 타겟 영역을 촬영하기 위한 복수의 카메라들 및 상기 복수의 카메라들 각각과 전기적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 상기 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하고, 상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하고, 상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하고, 상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하고, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하고, 및 상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하도록 설정되는 것을 특징으로 할 수 있다.An electronic device for tracking the location of an arbitrary object included in a target area according to an embodiment disclosed in this document includes a plurality of cameras for photographing the target area at different positions and each of the plurality of cameras; a processor electrically connected, wherein the processor acquires a plurality of image data photographed at different positions with respect to the target area by using the plurality of cameras, and from the plurality of image data, the target Recognize object images corresponding to one or more objects included in an area, select object images determined to correspond to the same object among the recognized object images as a first object image set, and the first object image set is set a corresponding object as a first object, determine a position of the first object based on positions of object images included in the first object image set, and the object image included in the first object image set and time information related to the object images may be set to be stored.

일 실시 예에 따르면, 상기 프로세서는, 상기 복수의 이미지 데이터들에서 인식된 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑하고, 상기 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서, 서로 상이한 카메라를 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들을 상기 동일한 객체에 대응하는 것으로 결정하도록 더 설정되는 것을 특징으로 할 수 있다.According to an embodiment, the processor maps object images recognized from the plurality of image data on a single coordinate system with respect to the target area, and a distance between the mapped object images is designated. Among the object images smaller than the threshold value, it may be further configured to determine object images recognized from image data obtained using different cameras as corresponding to the same object.

일 실시 예에 따르면, 상기 매핑된 객체 이미지들 중 상호 간의 거리가 상기 지정된 임계 값보다 작은 상기 객체 이미지들 중에서, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서 인식된 객체 이미지들이 둘 이상인 경우, 상기 제1 카메라를 제외한 나머지 카메라들을 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들은 상기 동일한 객체에 대응하는 것으로 결정될 수 있다.According to an embodiment, when there are two or more object images recognized from the first image data obtained using the first camera among the object images whose mutual distance is smaller than the specified threshold value among the mapped object images , object images recognized from image data obtained by using the remaining cameras except for the first camera may be determined to correspond to the same object.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지가 상기 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들로부터 상기 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 제외하도록 구성이 변경될 수 있다.According to an embodiment, after selecting at least a first object image as the first object image set, the first object image is a distance smaller than the specified threshold value from the remaining object images included in the first object image set When it does not exist within the area range of , the configuration of the first object image set may be changed to exclude the first object image.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트가 상기 제1 객체 이미지를 제외하도록 구성이 변경된 이후에, 상기 나머지 객체 이미지들과의 거리가 상기 지정된 임계 값 보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제2 객체 이미지를 포함하도록 구성이 변경될 수 있다.According to an embodiment, after the configuration of the first object image set is changed to exclude the first object image, a second object image having a distance from the remaining object images smaller than the specified threshold value is set to the first object image. When recognized from the first image data corresponding to the object image, the configuration of the first object image set may be changed to include the second object image.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들과의 거리가 상기 지정된 임계 값보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 포함하고 상기 제2 객체 이미지를 제외하도록 구성이 변경될 수 있다.According to an embodiment, after selecting at least a first object image as the first object image set, a second object image having a distance from object images included in the first object image set is smaller than the specified threshold value When recognized from the first image data corresponding to the first object image, the configuration of the first object image set may be changed to include the first object image and exclude the second object image.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 복수의 카메라들 중 우선순위가 가장 높은 카메라를 이용하여 획득된 이미지 데이터에서 인식된 객체 이미지가 대응하는 객체로 재설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed, the object corresponding to the first object image set uses the highest priority camera among the plurality of cameras. An object image recognized in the acquired image data may be reset to a corresponding object.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 적어도 일부가 제외되도록 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제외된 적어도 일부의 객체 이미지에 대응하는 카메라의 우선순위는 상기 복수의 카메라들 중 나머지 카메라의 우선순위보다 낮게 설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed such that at least some of the object images included in the first object image set are changed, the excluded at least some object images A priority of a camera corresponding to . may be set lower than a priority of the remaining cameras among the plurality of cameras.

일 실시 예에 따르면, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지가 대응하는 객체로 재설정될 수 있다.According to an embodiment, when the configuration of object images included in the first object image set is changed, the object to which the first object image set corresponds is a majority of the object images included in the first object image set The object image may be reset to the corresponding object.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.The various embodiments of this document and the terms used therein are not intended to limit the technology described in this document to a specific embodiment, but it should be understood to include various modifications, equivalents, and/or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like components. The singular expression may include the plural expression unless the context clearly dictates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C” or “at least one of A, B and/or C” refer to all of the items listed together. Possible combinations may be included. Expressions such as “first”, “second”, “first” or “second” can modify the corresponding components regardless of order or importance, and are only used to distinguish one component from another. The components are not limited. When an (eg, first) component is referred to as being “connected (functionally or communicatively)” or “connected” to another (eg, second) component, that component is It may be directly connected to the component or may be connected through another component (eg, a third component).

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.As used herein, the term “module” includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit. A module may be an integrally formed part or a minimum unit or a part of one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리 또는 외장 메모리)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치를 포함할 수 있다. 상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present document may be implemented as software including instructions stored in a machine-readable storage media (eg, internal memory or external memory) readable by a machine (eg, a computer). . The device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include the electronic device according to the disclosed embodiments. When the instruction is executed by the processor, the processor may directly or use other components under the control of the processor to perform a function corresponding to the instruction. Instructions may include code generated or executed by a compiler or interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' means that the storage medium does not include a signal and is tangible, and does not distinguish that data is semi-permanently or temporarily stored in the storage medium.

일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an embodiment, the method according to various embodiments disclosed in this document may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play Store™). In the case of online distribution, at least a portion of the computer program product may be temporarily stored or temporarily generated in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components (eg, a module or a program) according to various embodiments may be composed of a singular or a plurality of entities, and some sub-components of the aforementioned sub-components may be omitted, or other sub-components may be various. It may be further included in the embodiment. Alternatively or additionally, some components (eg, a module or a program) may be integrated into a single entity to perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be sequentially, parallel, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added. can

Claims (20)

타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 방법에 있어서,
복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하는 단계;
상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하는 단계;
상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 단계;
상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하는 단계;
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하는 단계; 및
상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하는 단계;를 포함하는 방법.
A method for tracking the position of an arbitrary object included in a target area, the method comprising:
acquiring a plurality of image data captured at different positions with respect to the target area by using a plurality of cameras;
recognizing object images corresponding to one or more objects included in the target area from the plurality of image data;
selecting, as a first object image set, object images determined to correspond to the same object among the recognized object images;
setting an object to which the first object image set corresponds as a first object;
determining a position of the first object based on positions of object images included in the first object image set; and
and storing the object images included in the first object image set and time information related to the object images.
제1 항에 있어서,
상기 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하는 상기 단계는,
상기 복수의 이미지 데이터들에서 인식된 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑하는 단계; 및
상기 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서, 서로 상이한 카메라를 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들을 상기 동일한 객체에 대응하는 것으로 결정하는 단계;를 포함하는, 방법.
The method of claim 1,
The step of selecting object images determined to correspond to the same object as a first object image set comprises:
mapping object images recognized from the plurality of image data onto a single coordinate system for the target area; and
Determining object images recognized from image data obtained using different cameras as corresponding to the same object from among object images whose mutual distance is smaller than a specified threshold value among the mapped object images; Including method.
제2 항에 있어서,
상기 매핑된 객체 이미지들 중 상호 간의 거리가 상기 지정된 임계 값보다 작은 상기 객체 이미지들 중에서, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서 인식된 객체 이미지들이 둘 이상인 경우, 상기 제1 카메라를 제외한 나머지 카메라들을 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들은 상기 동일한 객체에 대응하는 것으로 결정되는, 방법.
3. The method of claim 2,
If there are two or more object images recognized in the first image data obtained using the first camera among the object images whose mutual distance is smaller than the specified threshold among the mapped object images, the first camera The method, wherein object images recognized from image data acquired using the remaining cameras are determined to correspond to the same object.
제2 항에 있어서,
상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지가 상기 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들로부터 상기 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 제외하도록 구성이 변경되는, 방법.
3. The method of claim 2,
After selecting at least a first object image as the first object image set, the first object image does not exist within an area range of a distance smaller than the specified threshold value from the remaining object images included in the first object image set. if not, the configuration of the first object image set is changed to exclude the first object image.
제4 항에 있어서,
상기 제1 객체 이미지 세트가 상기 제1 객체 이미지를 제외하도록 구성이 변경된 이후에, 상기 나머지 객체 이미지들과의 거리가 상기 지정된 임계 값 보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제2 객체 이미지를 포함하도록 구성이 변경되는, 방법.
5. The method of claim 4,
After the configuration of the first object image set is changed to exclude the first object image, a second object image whose distance from the remaining object images is smaller than the specified threshold is a second object image corresponding to the first object image. If recognized from one image data, the configuration is changed such that the first object image set includes the second object image.
제2 항에 있어서,
상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들과의 거리가 상기 지정된 임계 값보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 포함하고 상기 제2 객체 이미지를 제외하도록 구성이 변경되는, 방법.
3. The method of claim 2,
After selecting at least a first object image as the first object image set, a second object image having a distance from object images included in the first object image set smaller than the specified threshold is added to the first object image. If recognized from corresponding first image data, the configuration is changed such that the first object image set includes the first object image and excludes the second object image.
제1 항에 있어서,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 복수의 카메라들 중 우선순위가 가장 높은 카메라를 이용하여 획득된 이미지 데이터에서 인식된 객체 이미지가 대응하는 객체로 재설정되는, 방법.
The method of claim 1,
When the configuration of object images included in the first object image set is changed, the object corresponding to the first object image set is recognized from image data obtained by using the camera having the highest priority among the plurality of cameras The method, wherein the object image is reset to the corresponding object.
제7 항에 있어서,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 적어도 일부가 제외되도록 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제외된 적어도 일부의 객체 이미지에 대응하는 카메라의 우선순위는 상기 복수의 카메라들 중 나머지 카메라의 우선순위보다 낮게 설정되는, 방법.
8. The method of claim 7,
When the configuration of object images included in the first object image set is changed so that at least some of the object images included in the first object image set are excluded, priority of the camera corresponding to the excluded at least some object images The method of claim 1, wherein the priority is set lower than the priority of the remaining cameras among the plurality of cameras.
제1 항에 있어서,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지가 대응하는 객체로 재설정되는, 방법.
The method of claim 1,
When the configuration of object images included in the first object image set is changed, the object to which the first object image set corresponds is an object to which a majority of object images included in the first object image set correspond to to be reset to, the method.
제1 항에 있어서,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대응하는 식별 번호들에 기초하여, 상기 제1 객체에 대응하는 제1 식별 번호 세트를 획득하는 단계; 를 더 포함하는, 방법.
The method of claim 1,
obtaining a first set of identification numbers corresponding to the first object based on identification numbers corresponding to each of the object images included in the first object image set; A method further comprising:
제1 항에 있어서,
상기 제1 객체의 위치를 결정하는 상기 단계는,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계 상에 매핑하는 단계;
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대하여, 대응하는 카메라로부터의 거리를 각각 획득하는 단계;
상기 획득된 거리에 기초하여, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 각각에 대한 가중치를 결정하는 단계; 및
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 및 상기 결정된 가중치에 기초하여, 상기 단일 좌표계 상에서 상기 제1 객체의 위치를 결정하는 단계;를 포함하는, 방법.
The method of claim 1,
The step of determining the position of the first object,
mapping object images included in the first object image set on a single coordinate system for the target area;
obtaining a distance from a corresponding camera for each of the object images included in the first object image set;
determining a weight for each of the object images included in the first object image set based on the obtained distance; and
determining the position of the first object on the single coordinate system based on the determined weight and the object images included in the first object image set.
타겟 영역에 포함되는 임의의 객체의 위치를 추적하는 전자 장치에 있어서,
서로 상이한 위치에서 상기 타겟 영역을 촬영하기 위한 복수의 카메라들; 및
상기 복수의 카메라들 각각과 전기적으로 연결되는 프로세서;를 포함하고,
상기 프로세서는,
상기 복수의 카메라들을 이용하여, 상기 타겟 영역에 대하여 서로 상이한 위치에서 촬영된 복수의 이미지 데이터들을 획득하고,
상기 복수의 이미지 데이터들에서, 상기 타겟 영역에 포함되는 하나 이상의 객체에 대응하는 객체 이미지들을 인식하고,
상기 인식된 객체 이미지들 중 동일한 객체에 대응하는 것으로 결정되는 객체 이미지들을 제1 객체 이미지 세트로서 선택하고,
상기 제1 객체 이미지 세트가 대응하는 객체를 제1 객체로 설정하고,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 위치에 기초하여 상기 제1 객체의 위치를 결정하고, 및
상기 제1 객체 이미지 세트에 포함되는 상기 객체 이미지들 및 상기 객체 이미지들과 관련된 시간 정보를 저장하도록 설정되는, 전자 장치.
An electronic device for tracking a position of an arbitrary object included in a target area, the electronic device comprising:
a plurality of cameras for photographing the target area at different positions; and
a processor electrically connected to each of the plurality of cameras;
The processor is
Using the plurality of cameras to obtain a plurality of image data photographed at different positions with respect to the target area,
Recognizing object images corresponding to one or more objects included in the target area from the plurality of image data,
selecting, as a first object image set, object images determined to correspond to the same object among the recognized object images;
Set the object to which the first object image set corresponds to the first object,
determining a position of the first object based on positions of object images included in the first object image set; and
The electronic device is configured to store the object images included in the first object image set and time information related to the object images.
제12 항에 있어서,
상기 프로세서는,
상기 복수의 이미지 데이터들에서 인식된 객체 이미지들을 상기 타겟 영역에 대한 단일 좌표계(coordinate system) 상에 매핑하고,
상기 매핑된 객체 이미지들 중 상호 간의 거리가 지정된 임계 값 보다 작은 객체 이미지들 중에서, 서로 상이한 카메라를 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들을 상기 동일한 객체에 대응하는 것으로 결정하도록 더 설정되는, 전자 장치.
13. The method of claim 12,
The processor is
Map the object images recognized from the plurality of image data on a single coordinate system for the target area,
Among the object images whose mutual distance is smaller than a specified threshold value among the mapped object images, it is further set to determine object images recognized from image data obtained using different cameras as corresponding to the same object , electronic devices.
제13 항에 있어서,
상기 매핑된 객체 이미지들 중 상호 간의 거리가 상기 지정된 임계 값보다 작은 상기 객체 이미지들 중에서, 제1 카메라를 이용하여 획득된 제1 이미지 데이터에서 인식된 객체 이미지들이 둘 이상인 경우, 상기 제1 카메라를 제외한 나머지 카메라들을 이용하여 획득된 이미지 데이터들에서 인식되는 객체 이미지들은 상기 동일한 객체에 대응하는 것으로 결정되는, 전자 장치.
14. The method of claim 13,
If there are two or more object images recognized in the first image data obtained using the first camera among the object images whose mutual distance is smaller than the specified threshold among the mapped object images, the first camera The electronic device, wherein object images recognized from image data acquired using the remaining cameras are determined to correspond to the same object.
제13 항에 있어서,
상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지가 상기 제1 객체 이미지 세트에 포함되는 나머지 객체 이미지들로부터 상기 지정된 임계 값 보다 작은 거리의 영역 범위 내에 존재하지 않는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 제외하도록 구성이 변경되는, 전자 장치.
14. The method of claim 13,
After selecting at least a first object image as the first object image set, the first object image does not exist within an area range of a distance smaller than the specified threshold value from the remaining object images included in the first object image set. otherwise, the configuration of the first object image set is changed to exclude the first object image.
제15 항에 있어서,
상기 제1 객체 이미지 세트가 상기 제1 객체 이미지를 제외하도록 구성이 변경된 이후에, 상기 나머지 객체 이미지들과의 거리가 상기 지정된 임계 값 보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제2 객체 이미지를 포함하도록 구성이 변경되는, 전자 장치.
16. The method of claim 15,
After the configuration of the first object image set is changed to exclude the first object image, a second object image whose distance from the remaining object images is smaller than the specified threshold is a second object image corresponding to the first object image. When recognized from the first image data, the configuration of the first object image set is changed to include the second object image.
제13 항에 있어서,
상기 제1 객체 이미지 세트로서 적어도 제1 객체 이미지를 선택한 이후에, 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들과의 거리가 상기 지정된 임계 값보다 작은 제2 객체 이미지가 상기 제1 객체 이미지에 대응하는 제1 이미지 데이터로부터 인식되는 경우, 상기 제1 객체 이미지 세트는 상기 제1 객체 이미지를 포함하고 상기 제2 객체 이미지를 제외하도록 구성이 변경되는, 전자 장치.
14. The method of claim 13,
After selecting at least a first object image as the first object image set, a second object image having a distance from object images included in the first object image set smaller than the specified threshold is added to the first object image. When recognized from the corresponding first image data, the configuration is changed such that the first object image set includes the first object image and excludes the second object image.
제12 항에 있어서,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 복수의 카메라들 중 우선순위가 가장 높은 카메라를 이용하여 획득된 이미지 데이터에서 인식된 객체 이미지가 대응하는 객체로 재설정되는, 전자 장치.
13. The method of claim 12,
When the configuration of object images included in the first object image set is changed, the object corresponding to the first object image set is recognized from image data obtained by using the camera having the highest priority among the plurality of cameras The electronic device, wherein the object image is reset to the corresponding object.
제18 항에 있어서,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 적어도 일부가 제외되도록 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제외된 적어도 일부의 객체 이미지에 대응하는 카메라의 우선순위는 상기 복수의 카메라들 중 나머지 카메라의 우선순위보다 낮게 설정되는, 전자 장치.
19. The method of claim 18,
When the configuration of object images included in the first object image set is changed so that at least some of the object images included in the first object image set are excluded, priority of the camera corresponding to the excluded at least some object images The priority is set lower than the priority of the remaining cameras among the plurality of cameras.
제12 항에 있어서,
상기 제1 객체 이미지 세트에 포함되는 객체 이미지들의 구성이 변경되는 경우, 상기 제1 객체 이미지 세트가 대응하는 객체는 상기 제1 객체 이미지 세트에 포함되는 객체 이미지들 중 과반의 객체 이미지가 대응하는 객체로 재설정되는, 전자 장치.
13. The method of claim 12,
When the configuration of object images included in the first object image set is changed, the object to which the first object image set corresponds is an object to which a majority of object images included in the first object image set correspond to to be reset to, the electronic device.
KR1020210025125A 2021-02-24 2021-02-24 A method for tracking a location of an object in a tarrget area and an electronic device performing the same KR20220121105A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210025125A KR20220121105A (en) 2021-02-24 2021-02-24 A method for tracking a location of an object in a tarrget area and an electronic device performing the same
PCT/KR2022/002145 WO2022182040A1 (en) 2021-02-24 2022-02-14 Method for tracking location of object within target area, and electronic device for performing same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210025125A KR20220121105A (en) 2021-02-24 2021-02-24 A method for tracking a location of an object in a tarrget area and an electronic device performing the same

Publications (1)

Publication Number Publication Date
KR20220121105A true KR20220121105A (en) 2022-08-31

Family

ID=83049391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210025125A KR20220121105A (en) 2021-02-24 2021-02-24 A method for tracking a location of an object in a tarrget area and an electronic device performing the same

Country Status (2)

Country Link
KR (1) KR20220121105A (en)
WO (1) WO2022182040A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113888761A (en) * 2017-05-19 2022-01-04 谷歌有限责任公司 Efficient image analysis using environmental sensor data
KR102150847B1 (en) * 2017-08-22 2020-09-02 미쓰비시덴키 가부시키가이샤 Image processing apparatus and image processing method
JP7022040B2 (en) * 2018-09-26 2022-02-17 Kddi株式会社 Object identification device, method and program
KR102172239B1 (en) * 2019-02-18 2020-10-30 세종대학교산학협력단 Method and system for abnormal situation monitoring based on video
KR102317628B1 (en) * 2019-07-04 2021-10-26 (주)넷비젼텔레콤 Method and system for recognizing situation based on event tagging

Also Published As

Publication number Publication date
WO2022182040A1 (en) 2022-09-01

Similar Documents

Publication Publication Date Title
JP7004017B2 (en) Object tracking system, object tracking method, program
CN110568447B (en) Visual positioning method, device and computer readable medium
JP5905540B2 (en) Method for providing a descriptor as at least one feature of an image and method for matching features
CN107431786B (en) Image processing apparatus, image processing system, and image processing method
US9684928B2 (en) Foot tracking
CN107633526B (en) Image tracking point acquisition method and device and storage medium
US11017588B2 (en) Image processing apparatus that generates a virtual view image from multiple images captured from different directions and method controlling the same
US10957068B2 (en) Information processing apparatus and method of controlling the same
US20190089923A1 (en) Video processing apparatus for displaying a plurality of video images in superimposed manner and method thereof
JP5631086B2 (en) Information processing apparatus, control method therefor, and program
US10861185B2 (en) Information processing apparatus and method of controlling the same
EP3502958B1 (en) Object recognition processing apparatus, object recognition processing method, and program
JPWO2013073167A1 (en) Image processing apparatus, imaging apparatus, and image processing method
US11776213B2 (en) Pose generation apparatus, generation method, and storage medium
US11823394B2 (en) Information processing apparatus and method for aligning captured image and object
CN108629799B (en) Method and equipment for realizing augmented reality
CN112882576B (en) AR interaction method and device, electronic equipment and storage medium
CN113362441A (en) Three-dimensional reconstruction method and device, computer equipment and storage medium
EP2946360B1 (en) Foot tracking
US11189053B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP6077425B2 (en) Video management apparatus and program
CN112991441A (en) Camera positioning method and device, electronic equipment and storage medium
KR20220121105A (en) A method for tracking a location of an object in a tarrget area and an electronic device performing the same
CN114882073A (en) Target tracking method and apparatus, medium, and computer device
JP6717769B2 (en) Information processing device and program