KR20230126495A - Method, system and non-transitory computer-readable recording medium for generating a map of controlled object - Google Patents
Method, system and non-transitory computer-readable recording medium for generating a map of controlled object Download PDFInfo
- Publication number
- KR20230126495A KR20230126495A KR1020220023742A KR20220023742A KR20230126495A KR 20230126495 A KR20230126495 A KR 20230126495A KR 1020220023742 A KR1020220023742 A KR 1020220023742A KR 20220023742 A KR20220023742 A KR 20220023742A KR 20230126495 A KR20230126495 A KR 20230126495A
- Authority
- KR
- South Korea
- Prior art keywords
- control target
- target object
- coordinate information
- subject
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013507 mapping Methods 0.000 claims abstract description 15
- 238000004590 computer program Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 35
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 5
- 230000001131 transforming effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
- G09B29/004—Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Abstract
본 개시는 제어 대상 객체의 지도를 생성하는 방법, 장치, 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다. 본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 방법은 적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계; 적어도 하나의 이미지 각각에서 피사체의 영역 이미지를 검출하는 단계; 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 단계; 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하는 단계; 및 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 단계; 를 포함한다.The present disclosure relates to a method for generating a map of a control target object, an apparatus, and a non-transitory computer readable recording medium. A method for generating a map of a control target object according to an embodiment of the present disclosure includes receiving at least one image including a subject from at least one control target object; detecting an area image of a subject in each of the at least one image; generating posture coordinate information by analyzing the region image; generating mapped coordinate information by mapping at least one control target object to posture coordinate information; and generating direction coordinate information by converting the mapped coordinate information based on the subject; includes
Description
본 개시는 제어 대상 객체의 지도를 생성하는 방법, 장치, 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것으로서, 보다 상세하게는 사용자를 기준으로 제어 대상 객체의 위치를 결정하여 제어 대상 객체의 지도를 생성하는 방법, 장치 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다.The present disclosure relates to a method, apparatus, and non-transitory computer readable recording medium for generating a map of a control object, and more particularly, to generate a map of a control object by determining a location of a control object based on a user. It relates to a method, apparatus, and non-transitory computer readable recording medium.
최근, 사물 인터넷에 관한 관심이 높아지고 관련 기술 분야의 개발이 활발하게 진행됨에 따라, 사물 인터넷 기술에 기반하여 기기 또는 사물 등을 제어하는 기술들이 소개되고 있다. 특히, 모바일 디바이스, 태블릿, 랩탑, PC, 가전 디바이스, 자동차 등 다양한 사용 환경에서 사용자의 모션 또는 조작에 기반하여 디바이스, 객체 등을 제어하는 것을 지원하는 기술들이 소개되고 있다.Recently, as interest in the Internet of Things increases and development of related technologies is actively progressed, technologies for controlling devices or objects based on the Internet of Things technology have been introduced. In particular, technologies for supporting control of devices, objects, and the like based on user's motion or manipulation in various use environments such as mobile devices, tablets, laptops, PCs, home appliances, and automobiles have been introduced.
복수의 제어 가능한 객체가 있는 IoT 환경에서 객체의 물리적인 위치에 따라 객체를 제어하는 것을 지원하기 위해 객체의 위치를 측정하고 측정된 객체의 위치를 기반으로 디지털 트윈 지도를 생성하는 기술이 알려져 있다. 예를 들어, 2D 카메라 또는 3D 카메라 등을 이동시키며 공간을 스캔하고, 공간을 스캔하는 과정에서 객체의 위치를 함께 검출하는 기술이 알려져 있다. 그러나, 이러한 방식은 공간을 스캔하는 과정에 많은 노력을 필요로 하며, 객체의 실시간 위치 검출이 불가능하기 때문에 스캔 이후에 객체의 위치가 변경되는 경우에 오차가 발생하는 문제가 있다. 또한, 비가청 대역의 소리(예컨대, 초음파)를 여러 위치에서 발생시켜 현재 위치에서의 거리를 추정하는 방식으로 객체의 위치를 검출하는 기술이 알려져 있다. 그러나, 이러한 방식은 신호 발생기의 위치가 정확히 설정되어야 하고, 신호 발생기의 위치가 변경되는 경우에 오차가 발생하는 문제가 있다.In order to support controlling an object according to its physical location in an IoT environment with a plurality of controllable objects, a technique for measuring the location of an object and generating a digital twin map based on the measured location of the object is known. For example, a technique of scanning a space by moving a 2D camera or a 3D camera and detecting the position of an object together in the process of scanning the space is known. However, this method requires a lot of effort in the process of scanning the space, and since it is impossible to detect the location of the object in real time, there is a problem in that an error occurs when the location of the object is changed after scanning. In addition, a technique for detecting the location of an object by generating inaudible band sounds (eg, ultrasonic waves) at various locations and estimating a distance from the current location is known. However, this method has a problem in that the position of the signal generator must be accurately set, and an error occurs when the position of the signal generator is changed.
따라서, 간단하면서도 정확한 방법으로 객체들의 물리적인 위치를 검출하고 이를 기반으로 객체의 디지털 트윈 지도를 생성함으로써, 객체를 제어하는 데 있어서 사용자의 편의성을 향상시킬 수 있는 기술의 개발이 여전히 요구되고 있는 실정이다.Therefore, there is still a need to develop a technology that can improve user convenience in controlling objects by detecting the physical locations of objects in a simple and accurate way and generating a digital twin map of objects based on this. am.
본 개시는 상술한 종래기술의 문제점을 해결하기 위한 것으로서, 제어 대상 객체의 상대적인 위치에 기반하여 제어 대상 객체의 지도를 생성하는 방법 및 장치를 제공하는 것에 그 목적이 있다.An object of the present disclosure is to provide a method and apparatus for generating a map of a control target object based on a relative location of the control target object, in order to solve the above-described problems of the prior art.
또한, 본 개시는 기준 공간 상에서의 제어 대상 객체의 위치를 검출하여 3차원의 제어 대상 객체의 지도를 생성하는 방법 및 장치를 제공하는 것에 그 목적이 있다.In addition, an object of the present disclosure is to provide a method and apparatus for generating a 3D control target object map by detecting a position of the control target object on a reference space.
본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 방법은 적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계; 적어도 하나의 이미지 각각에서 피사체의 영역 이미지를 검출하는 단계; 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 단계; 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하는 단계; 및 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 단계; 를 포함한다.A method for generating a map of a control target object according to an embodiment of the present disclosure includes receiving at least one image including a subject from at least one control target object; detecting an area image of a subject in each of the at least one image; generating posture coordinate information by analyzing the region image; generating mapped coordinate information by mapping at least one control target object to posture coordinate information; and generating direction coordinate information by converting the mapped coordinate information based on the subject; includes
본 개시의 일 실시예에 따르면, 자세 좌표 정보 생성 단계는, 영역 이미지의 요각 및 피치각을 검출하는 방식으로 수행될 수 있다.According to an embodiment of the present disclosure, the generating of the attitude coordinate information may be performed by detecting yaw and pitch angles of the area image.
본 개시의 일 실시예에 따르면, 매핑된 좌표 정보 생성 단계는, 영역 이미지를 해당 영역 이미지를 촬영한 제어 대상 객체와 매칭시키는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the generating of mapped coordinate information may include matching a region image with a control target object obtained by capturing a corresponding region image.
본 개시의 일 실시예에 따르면, 방향 좌표 정보 생성 단계는, 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 수행될 수 있다.According to an embodiment of the present disclosure, the generating of directional coordinate information may be performed by converting posture coordinate information according to yaw and pitch angles into directional coordinate information according to up, down, left, and right directions.
본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 방법은 적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계; 적어도 하나의 이미지 각각에서 제1 피사체의 제1 영역 이미지 및 제2 피사체의 제2 영역 이미지를 검출하는 단계; 제1 영역 이미지 및 제2 영역 이미지를 분석하여 제1 자세 좌표 정보 및 제2 자세 좌표 정보를 생성하는 단계; 제1 자세 좌표 정보 및 제2 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 각각 매핑하여 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 생성하는 단계; 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 각각 제1 피사체 및 제2 피사체를 기준으로 변환하여 제1 방향 좌표 정보 및 제2 방향 좌표 정보를 생성하는 단계; 제1 방향 좌표 정보를 기초로 제1 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성하고, 제2 방향 좌표 정보를 기초로 제2 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성하는 단계; 및 제1 반직선 정보 및 제2 반직선 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 단계;를 포함한다.A method of generating a map of a control target object according to an embodiment of the present disclosure includes receiving at least one image including a first subject and a second subject from at least one control target object; detecting a first area image of a first subject and a second area image of a second subject from each of the at least one image; generating first posture coordinate information and second posture coordinate information by analyzing the first area image and the second area image; generating first mapped coordinate information and second mapped coordinate information by mapping at least one control target object to first posture coordinate information and second posture coordinate information, respectively; generating first direction coordinate information and second direction coordinate information by converting first mapped coordinate information and second mapped coordinate information based on the first subject and the second subject, respectively; Based on the first direction coordinate information, first half line information is generated by connecting each of at least one control target object with a half line based on the first subject based on the first direction coordinate information, and at least one control target object based on the second subject based on the second direction coordinate information. generating second half line information by connecting each of the control target objects in a half line; and determining a location of each of the at least one control target object based on the first and second linear information.
본 개시의 일 실시예에 따르면, 제어 대상 객체 위치 결정 단계는, 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로가 서로 교차하는 교차점을 해당 제어 대상 객체의 위치로 결정하는 단계; 또는 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 한 점을 적어도 하나의 제어 대상 객체 각각의 위치로 결정하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the step of determining the position of the control target object may include determining an intersection point where a ray path of first ray information and a ray path of second linear information for each of the at least one control target object intersect with each other. determining the position of the object; or determining a point of a shortest connecting line between a ray path of the first ray information and a ray path of the second linear information for each of the at least one control target object as the position of each of the at least one control target object. there is.
본 개시의 일 실시예에 따르면, 제어 대상 객체 위치 결정 단계는 적어도 하나의 제어 대상 객체 각각의 자세를 결정하는 단계를 포함할 수 있다. 여기서, 제어 대상 객체 자세 결정 단계에서는, 적어도 하나의 제어 대상 객체의 카메라 모듈 각각의 자세로부터 적어도 하나의 제어 대상 객체 각각의 자세를 결정할 수 있다.According to an embodiment of the present disclosure, determining the location of the object to be controlled may include determining the posture of each of the at least one object to be controlled. Here, in the step of determining the posture of the object to be controlled, the posture of each of the at least one object to be controlled may be determined from the posture of each camera module of the at least one object to be controlled.
본 개시의 일 실시예에 따르면, 제어 대상 객체 위치 결정 단계는, 제1 피사체의 제1 영역의 롤각 및 제2 피사체의 제2 영역의 롤각을 결정하는 단계; 및 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계를 포함할 수 있다. 여기서, 제1 피사체의 제1 영역의 롤각 및 제2 피사체의 제2 영역의 롤각 결정 단계에서는, 아웃라이어를 제외하고 유효한 롤각의 평균을 해당 피사체의 영역의 롤각으로 결정할 수 있다. 또한, 적어도 하나의 제어 대상 객체의 롤각 결정 단계는, 제1 피사체의 제1 영역의 롤각을 기반으로 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계; 및 제2 피사체의 제2 영역의 롤각을 기반으로 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계를 포함할 수 있다.According to one embodiment of the present disclosure, determining the position of the object to be controlled may include determining a roll angle of a first area of a first subject and a roll angle of a second area of a second subject; and determining a roll angle of at least one control target object. Here, in determining the roll angle of the first area of the first subject and the roll angle of the second area of the second subject, an average of effective roll angles excluding outliers may be determined as the roll angle of the area of the subject. The determining of the roll angle of the at least one control target object may include determining the roll angle of the at least one control target object based on the roll angle of the first region of the first subject; and determining a roll angle of at least one control target object based on a roll angle of a second region of a second subject.
본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 장치는 적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하고, 적어도 하나의 이미지 각각에서 피사체의 영역 이미지를 검출하는 이미지 수신부, 영역 이미지를 분석하여 자세 좌표 정보를 생성하고, 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하며, 매핑된 좌표 정보를 피사체를 기준으로 변환하여 제1 방향 좌표 정보를 생성하는 좌표 정보 생성부 및 방향 좌표 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 제어 대상 객체 위치 결정부를 포함한다.An apparatus for generating a map of a control target object according to an embodiment of the present disclosure includes receiving at least one image including a subject from at least one control target object and detecting an image of a region of the subject in each of the at least one image. The image receiving unit analyzes the area image to generate posture coordinate information, maps at least one control target object to the posture coordinate information to generate mapped coordinate information, and converts the mapped coordinate information based on the subject to create a first direction It includes a coordinate information generation unit that generates coordinate information and a control target object location determiner that determines the position of each of the at least one control target object based on the direction coordinate information.
본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 장치는 적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하고, 적어도 하나의 이미지 각각에서 제1 피사체의 제1 영역 이미지 및 제2 피사체의 제2 영역 이미지를 검출하는 이미지 수신부, 제1 영역 이미지 및 제2 영역 이미지를 각각 분석하여 제1 자세 좌표 정보 및 제2 자세 좌표 정보를 생성하고, 제1 자세 좌표 정보 및 제2 자세 좌표에 각각 적어도 하나의 제어 대상 객체를 매핑하여 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 생성하며, 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 각각 제1 피사체 및 제2 피사체를 기준으로 변환하여 제1 방향 좌표 정보 및 제2 방향 좌표 정보를 생성하고, 제1 방향 좌표 정보를 기초로 제1 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성하며, 제2 방향 좌표 정보를 기초로 제2 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성하는 좌표 정보 생성부 및 제1 반직선 정보 및 제2 반직선 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 제어 대상 객체 위치 결정부를 포함한다.An apparatus for generating a map of a control target object according to an embodiment of the present disclosure receives at least one image including a first subject and a second subject from at least one control target object, and obtains a first object from each of the at least one image. an image receiver configured to detect a first area image of a subject and a second area image of a second subject, analyze the first area image and the second area image, and generate first posture coordinate information and second posture coordinate information; At least one control target object is mapped to the first posture coordinate information and the second posture coordinate, respectively, to generate first mapped coordinate information and second mapped coordinate information, and the first mapped coordinate information and the second mapped coordinate information are generated. Information is converted based on the first subject and the second subject, respectively, to generate first direction coordinate information and second direction coordinate information, and at least one control target object based on the first subject based on the first direction coordinate information First half line information is generated by connecting each of them with a half line, and coordinate information is generated to generate second half line information by connecting each of at least one control target object with a half line based on the second subject based on the second direction coordinate information. and a control target object location determiner for determining a position of each of the at least one control target object based on the second linear information and the first linear information.
이 외에도, 본 개시를 구현하기 위한 다른 방법, 다른 장치 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition to this, another method for implementing the present disclosure, another device, and a non-transitory computer readable recording medium recording a computer program for executing the method are further provided.
본 개시의 일 실시예에 따르면, 제어 대상 객체로부터 수신한 피사체를 포함하는 이미지 분석하여 제어 대상 객체의 좌표 정보를 생성함으로써, 피사체를 기준으로 물리적으로 인지되는 방향 및 위치에 따른 제어 대상 객체의 지도를 생성할 수 있다.According to an embodiment of the present disclosure, by analyzing an image including a subject received from a control object and generating coordinate information of the control object, a map of the control object according to a physically recognized direction and location based on the subject can create
본 개시의 일 실시예에 따르면, 둘 이상의 피사체를 기준으로 제어 대상 객체의 좌표 정보를 생성함으로써, 제어 대상 객체의 위치를 3차원 좌표로 특정할 수 있다.According to an embodiment of the present disclosure, the location of the control object may be specified as 3D coordinates by generating coordinate information of the control object based on two or more subjects.
도 1은 본 개시의 일 실시예에 따라 제어 대상 객체 지도 기반으로 제어 대상 객체를 제어하기 위한 시스템 환경을 개략적으로 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 제어 대상 객체 지도 생성 장치의 기능적 구성을 개략적으로 도시한 기능 블록도이다.
도 3은 본 개시의 일 실시예에 따라 복수의 제어 대상 객체가 있는 소정의 공간에서 피사체가 특정 제어 대상 객체를 향하고 있는 모습을 예시적으로 나타내는 도면이다.
도 4는 본 개시의 일 실시예에 따라 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.
도 5는 본 개시의 일 실시예에 따라 방향 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따라 제어 대상 객체의 지도를 생성하는 방법을 예시적으로 보여주는 동작 흐름도이다.
도 7은 본 개시의 다른 실시예에 따라 복수의 제어 대상 객체가 있는 소정의 공간에서 제1 피사체 및 제2 피사체가 있는 모습을 예시적으로 나타내는 도면이다.
도 8은 본 개시의 다른 실시예에 따라 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.
도9는 본 개시의 다른 실시예에 따라 반직선 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.
도 10은 본 개시의 다른 실시예에 따라 제어 대상 객체 각각의 위치를 결정하는 방법을 예시적으로 나타내는 도면이다.
도 11 및 도 12는 본 개시의 다른 실시예에 따라 피사체의 영역 이미지의 롤각을 보정하는 방법을 예시적으로 나타내는 도면이다.
도 13은 본 개시의 다른 실시예에 따라 제어 대상 객체의 지도를 생성하는 방법을 예시적으로 보여주는 동작 흐름도이다.1 is a diagram schematically illustrating a system environment for controlling a control target object based on a control target object map according to an embodiment of the present disclosure.
2 is a functional block diagram schematically illustrating a functional configuration of an apparatus for generating a control target object map according to an embodiment of the present disclosure.
3 is a diagram illustratively illustrating a state in which a subject is facing a specific control target object in a predetermined space in which a plurality of control target objects are located according to an embodiment of the present disclosure.
4 is a diagram exemplarily illustrating a method of generating posture coordinate information by analyzing a region image of a subject according to an embodiment of the present disclosure.
5 is a diagram exemplarily illustrating a method of generating direction coordinate information according to an embodiment of the present disclosure.
6 is an operational flowchart exemplarily illustrating a method of generating a map of a control target object according to an embodiment of the present disclosure.
7 is a diagram illustratively showing a state in which a first subject and a second subject are present in a predetermined space in which a plurality of control object objects are located according to another embodiment of the present disclosure.
8 is a diagram exemplarily illustrating a method of generating posture coordinate information by analyzing a region image according to another embodiment of the present disclosure.
9 is a diagram exemplarily illustrating a method of generating half-line information according to another embodiment of the present disclosure.
10 is a diagram exemplarily illustrating a method of determining a location of each control target object according to another embodiment of the present disclosure.
11 and 12 exemplarily illustrate a method of correcting a roll angle of an image of a region of a subject according to another embodiment of the present disclosure.
13 is an operational flowchart exemplarily illustrating a method of generating a map of a control target object according to another embodiment of the present disclosure.
이하, 첨부 도면을 참조하여 본 개시의 실시예에 관하여 상세히 설명한다. 이하에서는, 본 개시의 요지를 불필요하게 흐릴 우려가 있다고 판단되는 경우, 이미 공지된 기능 및 구성에 관한 구체적인 설명을 생략한다. 또한, 이하에서 설명하는 내용은 어디까지나 본 개시의 일 실시예에 관한 것일 뿐 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Hereinafter, if it is determined that there is a risk of unnecessarily obscuring the gist of the present disclosure, detailed descriptions of already known functions and configurations will be omitted. In addition, it should be understood that the contents described below relate only to one embodiment of the present disclosure, and the present disclosure is not limited thereto.
본 개시에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 개시를 한정하려는 의도에서 사용된 것이 아니다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 개시에서 사용되는 "및/또는"이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다' 또는 '가지다' 등의 용어는 본 개시 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다.Terms used in the present disclosure are used only to describe specific embodiments and are not intended to limit the present disclosure. For example, a component expressed in the singular number should be understood as a concept including a plurality of components unless the context clearly means only the singular number. It should be understood that the term "and/or" as used in this disclosure encompasses any and all possible combinations of one or more of the listed items. Terms such as 'include' or 'have' used in the present disclosure are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the present disclosure exist, and these terms Use is not intended to exclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
본 개시의 실시예에 있어서 '모듈' 또는 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 또는 '부'는, 특정한 하드웨어로 구현될 필요가 있는 '모듈' 또는 '부'를 제외하고는, 적어도 하나의 소프트웨어 모듈로 일체화되어 적어도 하나의 프로세서에 의해 구현될 수 있다.In an embodiment of the present disclosure, a 'module' or 'unit' refers to a functional part that performs at least one function or operation, and may be implemented with hardware or software or a combination of hardware and software. In addition, a plurality of 'modules' or 'units' may be integrated into at least one software module and implemented by at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware. there is.
덧붙여, 달리 정의되지 않는 한 기술적 또는 과학적인 용어를 포함하여, 본 개시에서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의된 용어들은, 관련 기술의 문맥상 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 개시에서 명백하게 달리 정의하지 않는 한 과도하게 제한 또는 확장하여 해석되지 않는다는 점을 알아야 한다.In addition, unless defined otherwise, all terms used in this disclosure, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this disclosure belongs. It should be noted that commonly used terms defined in dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted excessively limited or expanded unless clearly defined otherwise in the present disclosure. .
도 1은 본 개시의 일 실시예에 따라 제어 대상 객체 지도 기반으로 제어 대상 객체를 제어하기 위한 시스템 환경을 개략적으로 나타내는 도면이다.1 is a diagram schematically illustrating a system environment for controlling a control target object based on a control target object map according to an embodiment of the present disclosure.
도 1에 도시된 바와 같이, 본 개시의 일 실시예 따르면, 제어 대상 객체 지도 기반으로 제어 대상 객체를 제어하기 위한 시스템(100)(이하, '제어 대상 객체 제어 시스템(100)'이라 함)은 사용자 단말(110), 제어 대상 객체(120), 통신망(130) 및 제어 대상 객체의 지도 생성 장치(140)(이하, '지도 생성 장치(140)'라 함)를 포함할 수 있다.As shown in FIG. 1 , according to an embodiment of the present disclosure, a
본 개시의 일 실시예에 따른 사용자 단말(110)은 통신망(130)을 통해 제어 대상 객체(120) 및/또는 지도 생성 장치(140)와 통신할 수 있는 기능을 포함하는 디지털 기기로서, 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기일 수 있다. 일 실시예에서, 사용자 단말(110)은 스마트 글래스, 스마트 워치, 스마트 밴드, 스마트 링, 스마트 넥클리스, 스마트 이어셋, 스마트 이어폰, 스마트 이어링, 헤드 마운티드 디스플레이(HMD) 등과 같은 웨어러블 디바이스이거나, 스마트폰, 스마트 패드, 데스크탑 컴퓨터, 서버, 노트북 컴퓨터, 워크스테이션, 피디에이(PDA), 웹 패드, 이동 전화기, 리모트 컨트롤러 등과 같은 다소 전통적인 디바이스일 수 있다. 본 도면에서는 3개의 사용자 단말(110)이 도시되어 있으나 본 개시가 이로써 제한되는 것은 아니다.The
본 개시의 일 실시예에 따르면, 사용자 단말(110)은 사용자의 입력을 수신하고, 이에 대응하는 제어 대상 객체(120)의 제어 화면 또는 제어 대상 객체(120)의 제어 화면의 링크를 표시하도록 구성되는 표시 수단을 구비할 수 있다. 일 실시예에서, 사용자 단말(110)은 지도 생성 장치(140)로부터 제어 대상 객체의 지도 정보를 수신할 수 있으며, 제어 대상 객체 지도에서 제어 대상 객체의 상대적인 위치를 기반으로 제어 대상 객체(120)를 탐색할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에 따르면, 사용자 단말(110)에는 본 개시에 따른 기능을 지원하는 애플리케이션이 포함되어 있을 수 있다. 이와 같은 애플리케이션은 제어 대상 객체 제어 시스템(100) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에 따른 제어 대상 객체(120)는 사용자의 조작에 의하여 제어될 수 있도록 구성되는 기기 또는 사물로서, 통신망(130) 또는 소정의 프로세서에 의하여 사용자 단말(110), 지도 생성 장치(140) 또는 외부 시스템(미도시됨)과 통신이 이루어질 수 있다. 제어 대상 객체(120)는 통신망(130)을 통하여 사용자 단말(110)로부터 전송되어 온 제어 명령을 수신할 수 있으며, 수신되는 제어 명령에 따라 자신의 모션 또는 기능이 제어되도록 구성될 수 있다. 본 개시의 일 실시예에 따른 제어 대상 객체(120)는, 예컨대 텔레비전, 에어컨, 스피커, 전등, 가습기, 서랍장, 창문, 블라인드 등과 같은 IoT(Internet of Things) 디바이스일 수 있다.The
본 개시의 일 실시예에 따르면, 제어 대상 객체(120)는 이미지를 촬영하도록 구성되는 카메라 모듈(미도시됨)을 포함할 수 있다. 본 개시의 일 실시예에서, 제어 대상 객체(120)에 포함되는 카메라 모듈은 소정의 공간을 촬영할 수 있다. 여기서 소정의 공간이란 피사체를 포함하는 공간을 의미한다. 일 실시예에서, 카메라 모듈은 카메라(예를 들어, RGB카메라, IR 카메라 등의 2차원 카메라, 3차원 카메라 등), 이미지 센서 및 영상 센서 중 적어도 하나를 포함할 수 있다. 카메라 모듈을 통해 획득한 이미지는 통신망(130)을 통하여 외부(예컨대, 지도 생성 장치(140))에 전송될 수 있다.According to one embodiment of the present disclosure, the
본 개시의 일 실시예에 따른 통신망(130)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(130)은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(130)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.The
예를 들면, 통신망(130)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE, Long Term Evolution) 통신, 5G 통신, 블루투스 통신(저전력 블루투스(BLE; Bluetooth Low Energy) 통신 포함), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다. 다른 예를 들면, 통신망(130)은 광 통신망으로서, 라이파이(LiFi, Light Fidelity) 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.For example, the
본 개시의 일 실시예에 따른 지도 생성 장치(140)는 제어 대상 객체(120)의 지도를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 제어 대상 객체(120)로부터 수신한 피사체를 포함하는 이미지를 분석하여 자세 좌표 정보를 생성하고, 해당 자세 좌표 정보에 제어 대상 객체(120)를 매핑하여 제어 대상 객체(120)의 자세 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 제어 대상 객체(120)가 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성할 수 있다.The
본 개시의 일 실시예에 따르면, 지도 생성 장치(140)는 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 디바이스로서, 서버 시스템일 수 있으며, 통신망(130)을 통해 사용자 단말(110) 및 제어 대상 객체(120)와 통신을 수행할 수 있다.According to an embodiment of the present disclosure, the
도 2는 본 개시의 일 실시예에 따른 제어 대상 객체 지도 생성 장치의 기능적 구성을 개략적으로 도시한 기능 블록도이다.2 is a functional block diagram schematically illustrating a functional configuration of an apparatus for generating a control target object map according to an embodiment of the present disclosure.
도 2를 참조하면, 본 개시의 일 실시예에 따른 지도 생성 장치(140)는 이미지 수신부(202), 좌표 정보 생성부(204), 제어 대상 객체 위치 결정부(206), 통신부(208) 및 저장부(210)를 포함할 수 있다. 도 2에 도시된 구성요소들은 지도 생성 장치(140)의 모든 기능을 반영한 것이 아니고, 필수적인 것도 아니어서, 지도 생성 장치(140)는 도시된 구성요소들 보다 많은 구성요소를 포함하거나 그보다 적은 구성요소를 포함할 수 있다.Referring to FIG. 2 , a
본 개시의 일 실시예에 따르면, 이미지 수신부(202), 좌표 정보 생성부(204), 제어 대상 객체 위치 결정부(206), 통신부(208) 및 저장부(210)는 그 중 적어도 일부가 외부의 시스템(미도시)과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 지도 생성 장치(140)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 지도 생성 장치(140)와 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 개시에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present disclosure, at least a part of the
한편, 지도 생성 장치(140)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 지도 생성 장치(140)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 외부 시스템(미도시) 내에서 실현되거나 외부 시스템 내에 포함될 수 있는 것으로 이해되어야 한다.Meanwhile, although the
본 개시의 일 실시예에 따르면, 이미지 수신부(202)는 적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하는 기능을 수행할 수 있다. 여기서 피사체는 적어도 하나의 제어 대상 객체의 위치를 결정하기 위한 기준이 되는 객체로서, 예컨대, 사용자와 같은 사람이거나, 디스플레이, 의자 등과 같은 일반적인 기기 또는 사물일 수 있다. 일 실시예에서, 피사체는 하나 또는 둘 이상일 수 있다.According to an embodiment of the present disclosure, the
도 3은 본 개시의 일 실시예에 따라 복수의 제어 대상 객체가 있는 소정의 공간에서 피사체가 특정 제어 대상 객체를 향하고 있는 모습을 예시적으로 나타내는 도면이다.3 is a diagram illustratively illustrating a state in which a subject is facing a specific control target object in a predetermined space in which a plurality of control target objects are located according to an embodiment of the present disclosure.
도 3에 도시된 바와 같이, 소정의 공간에는 제어 대상 객체로서 거울(ⓐ), 스피커(ⓑ), 블라인드(ⓒ), 가습기(ⓓ), 텔레비전(ⓔ), 조명(ⓕ), 에어컨(ⓖ) 및 스탠드(ⓗ)가 서로 다른 위치에 배치되어 있다. 도 3에서, 피사체(310)는 사용자이고, 사용자(310)는 복수의 제어 대상 객체 중 특정 제어 대상 객체(조명(ⓕ))를 바라보고 있다.As shown in FIG. 3, a mirror (ⓐ), a speaker (ⓑ), a blind (ⓒ), a humidifier (ⓓ), a television (ⓔ), a lighting (ⓕ), and an air conditioner (ⓖ) are used as objects to be controlled in a predetermined space. and stands ⓗ are disposed in different positions. In FIG. 3 , the subject 310 is a user, and the
도 2와 도 3을 함께 참조하면, 이미지 수신부(202)는, 복수의 제어 대상 객체(ⓐ 내지 ⓗ)로부터 피사체(310)를 포함하는 복수의 이미지를 수신할 수 있다. 여기서, 복수의 이미지는 복수의 제어 대상 객체(120)의 각각의 카메라 모듈에서 촬영된 이미지일 수 있다.Referring to FIGS. 2 and 3 together, the
본 개시의 일 실시예에 따르면, 이미지 수신부(202)는, 수신한 복수의 이미지 각각에서 피사체의 영역 이미지를 검출하는 기능을 수행할 수 있다. 여기서, 피사체의 영역 이미지는 피사체의 자세를 추정하기 위한 기준이 되는 영역이다. 예를 들면, 피사체가 사용자인 경우 피사체의 영역 이미지는 사용자의 얼굴 영역 이미지일 수 있다. 다른 예를 들면, 피사체가 디스플레이인 경우 피사체의 영역 이미지는 화면 영역 이미지일 수 있다. 또 다른 예를 들면, 피사체가 의자인 경우 피사체의 영역 이미지는 전면 등받이 영역 이미지일 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에 따르면, 좌표 정보 생성부(204)는, 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 기능을 수행할 수 있다.According to an embodiment of the present disclosure, the coordinate
도 4는 본 개시의 일 실시예에 따라 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.4 is a diagram exemplarily illustrating a method of generating posture coordinate information by analyzing a region image of a subject according to an embodiment of the present disclosure.
도 4에 도시된 바와 같이, 좌표 정보 생성부(204)는 피사체의 영역 이미지(예컨대, 사용자의 얼굴 영역 이미지)의 회전 방향 및 회전 각도를 검출하여 영역 이미지의 자세 좌표 정보를 생성할 수 있다. 구체적으로, 좌표 정보 생성부(204)는 각각의 얼굴 영역 이미지에서 얼굴을 들거나 숙이는 정도에 따른 각도(피치각(pitch angle)) 및 얼굴을 좌우로 돌리는 정도에 따른 각도(요각(yaw angle))를 검출할 수 있으며, 각각의 얼굴 영역 이미지에서 검출된 피치각 및 요각을 기초로 각각의 얼굴 영역 이미지를 요(Yaw)-피치(Pitch) 좌표계(자세 좌표계)에 배치하여 얼굴 영역 이미지의 자세 좌표 정보를 생성할 수 있다. 일 실시예에서 자세 좌표계는 요 좌표축과, 요 좌표축에 직교하는 피치 좌표축으로 구성될 수 있으며, 영역 이미지 중에서 어느 한쪽으로 편향되지 않고, 특정 제어 대상 객체(120)를 정면으로 향하는 영역 이미지가 원점(0, 0)에 배치되도록 구성될 수 있다.As shown in FIG. 4 , the coordinate
본 개시의 일 실시예에 따르면, 좌표 정보 생성부(204)는, 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하는 기능을 수행할 수 있다. 일 실시예에서, 좌표 정보 생성부(204)는 얼굴 영역 이미지의 자세 좌표 정보에 적어도 하나의 제어 대상 객체(120)를 매핑하여 매핑된 좌표 정보를 생성할 수 있다. 구체적으로, 도 4에 도시된 바와 같이, 각각의 영역 이미지(예컨대, 얼굴 영역 이미지)를 해당 영역 이미지를 촬영한 제어 대상 객체와 매칭시킬 수 있으며, 매칭되는 제어 대상 객체를 요-피치 좌표계(자세 좌표계)에 매핑하여 매핑된 좌표 정보를 생성할 수 있다.According to an embodiment of the present disclosure, the coordinate
본 개시의 일 실시예에 따르면, 좌표 정보 생성부(204)는, 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 기능을 수행할 수 있다.According to an embodiment of the present disclosure, the coordinate
도 5는 본 개시의 일 실시예에 따라 방향 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.5 is a diagram exemplarily illustrating a method of generating direction coordinate information according to an embodiment of the present disclosure.
도 3 및 도 5를 참조하면, 좌표 정보 생성부(204)는 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 방향 좌표 정보를 생성할 수 있다. 구체적으로, 요-피치 좌표계(자세 좌표계)에서 피치 다운(Pitch down)은 업(Up)으로, 피치 업(Pitch up)은 다운(Down)으로, 요 레프트(Yaw left)는 레프트(Left)로, 요 라이트(Yaw right)는 라이트(Right)로 변환하여 상하좌우의 방향 좌표계를 생성할 수 있으며, 방향 좌표계에 각각의 제어 대상 객체를 배치하여 방향 좌표 정보를 생성할 수 있다.Referring to FIGS. 3 and 5 , the coordinate
본 개시의 일 실시예에서, 원점에 위치한 제어 대상 객체(조명(ⓕ))를 기준으로, 도 5에 도시된 바와 같이, 우측에 에어컨(ⓖ), 좌측 상단에는 블라인드(ⓒ), 좌측 하단에는 텔레비전(ⓔ)이 위치하는 2차원의 제어 대상 객체의 지도를 생성할 수 있다.In one embodiment of the present disclosure, as shown in FIG. 5, based on the control target object (lighting (ⓕ)) located at the origin, the air conditioner (ⓖ) is on the right, the blind (ⓒ) is on the upper left, and the blind (ⓒ) is on the lower left. A map of a 2-dimensional object to be controlled where the television (ⓔ) is located may be created.
본 개시의 일 실시예에 따르면, 피사체를 기준으로 제어 대상 객체의 상대적인 위치가 결정되기 때문에 피사체, 사용자가 실제로 인지하는 물리적인 위치에 따라서 제어 대상 객체를 탐색할 수 있다. 일 실시예에서, 사용자 단말(110)에 2차원의 제어 대상 객체의 지도가 제공되면, 사용자는 사용자 단말(110)에 방향 정보를 포함하는 사용자 입력을 수행함으로써 제어 대상 객체를 탐색할 수 있다. 여기서, 방향 정보를 포함하는 사용자 입력은 예컨대, 방향 드래그(drag), 방향 이동 아이콘의 클릭, 소정 수의 방향 스와이프(swipe), 사용자 단말(110)에 대한 물리적인 이동 등일 수 있다.According to an embodiment of the present disclosure, since the relative position of the object to be controlled is determined with respect to the subject, the subject to be controlled may be searched according to the physical position actually recognized by the user. In an embodiment, when a 2D map of a control target object is provided to the
이하에서, 도 5에 도시된 제어 대상 객체의 지도를 참조하여 제어 대상 객체를 탐색하는 방법을 다양한 예시를 들어 설명한다. 예를 들어, 사용자 단말(110)(예컨대, 스마트 워치)에 조명(ⓕ)의 제어 화면이 표시된 상태에서 사용자가 우측으로 드래그하면, 제어 대상 객체의 지도에서 조명(ⓕ)의 우측에 위치하면서 조명(ⓕ)에 가장 인접한 제어 대상 객체인 에어컨(ⓖ)의 제어 화면이 표시될 수 있다. 다른 예를 들면, 사용자 단말(110)(예컨대, 스마트폰)에 가습기(ⓓ)의 제어 화면이 표시된 상태에서 사용자가 위로 이동하는 방향 아이콘을 클릭하면, 제어 대상 객체의 지도에서 가습기(ⓓ)로부터 위쪽 방향에 위치하면서 가습기(ⓓ)에 가장 인접한 제어 대상 객체인 블라인드(ⓒ)의 제어 화면이 표시될 수 있다. 또 다른 예를 들면, 사용자 단말(110)(예컨대, 태블릿)에 스피커(ⓑ)의 제어 화면 링크가 표시된 상태에서, 사용자가 태블릿을 우측 상단으로 물리적으로 이동시키면, 제어 대상 객체의 지도에서 스피커(ⓑ)의 우측 상단에 위치하면서 스피커(ⓑ)에 가장 인접한 제어 대상 객체인 블라인드(ⓒ)의 제어 화면 링크가 표시될 수 있다.Hereinafter, a method of searching for a control target object will be described with reference to the map of the control target object shown in FIG. 5 by way of various examples. For example, when the user drags to the right while the control screen of the light ⓕ is displayed on the user terminal 110 (eg, smart watch), the light is positioned to the right of the light ⓕ on the map of the object to be controlled. A control screen of an air conditioner (ⓖ), which is a control target object closest to (ⓕ), may be displayed. For another example, when the user clicks a direction icon moving upward while the control screen of the humidifier (ⓓ) is displayed on the user terminal 110 (eg, a smartphone), from the humidifier (ⓓ) on the map of the control target object. A control screen of a blind (ⓒ), which is a control target object located in an upward direction and closest to the humidifier (ⓓ), may be displayed. For another example, when the user physically moves the tablet to the upper right corner while the link of the control screen of the speaker ⓑ is displayed on the user terminal 110 (eg, the tablet), the speaker (ⓑ) is displayed on the map of the control target object. A link to the control screen of a blind (ⓒ), which is a control target object located at the upper right of ⓑ) and closest to the speaker (ⓑ), may be displayed.
다시 도 2를 참조하면, 본 개시의 일 실시예에 따른 제어 대상 객체 위치 결정부(206)는 좌표 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 기능을 수행할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 각각의 제어 대상 객체의 방향 좌표 정보를 기초로 제어 대상 객체의 상대적인 위치를 결정할 수 있으며, 제어 대상 객체의 상대적인 위치에 따른 지도를 생성할 수 있다.Referring back to FIG. 2 , the control target
본 개시의 일 실시예에 따르면, 통신부(208)는 이미지 수신부(202), 좌표 정보 생성부(204), 제어 대상 객체 위치 결정부(206) 및 저장부(210)로부터의/로의 데이터 송수신이 가능하도록 기능할 수 있으며, 또한 지도 생성 장치(140)가 외부 통신망과 통신할 수 있도록 기능할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에 따르면, 저장부(210)는 지도 생성 장치(140)를 운영하는 데에 필요한 데이터를 저장하는 기능을 수행할 수 있다. 저장부(210)에 저장되는 데이터로는, 예를 들어 이미지 수신부(202)에서 수신한 피사체를 포함하는 이미지, 이미지 각각에서 검출된 피사체의 영역 이미지에 관한 정보, 좌표 정보 생성부(204)에서 생성되는 자세 좌표 정보, 방향 좌표 정보, 반직선 정보, 제어 대상 객체 위치 결정부(206)에서 결정된 제어 대상 객체 각각의 위치에 관한 정보 등이 있을 수 있다.According to one embodiment of the present disclosure, the
도 6은 본 개시의 일 실시예에 따라 제어 대상 객체의 지도를 생성하는 방법을 예시적으로 보여주는 동작 흐름도이다.6 is an operational flowchart exemplarily illustrating a method of generating a map of a control target object according to an embodiment of the present disclosure.
먼저, 제어 대상 객체의 지도를 생성하는 방법은 지도 생성 장치(140)가 피사체를 포함하는 이미지를 수신하는 단계(S602)로부터 시작된다. 일 실시예에서, 지도 생성 장치(140)는 제어 대상 객체(120)의 카메라 모듈에서 촬영된 이미지를 수신할 수 있다.First, a method of generating a map of a control target object starts with the
다음으로, 단계(S604)에서 지도 생성 장치(140)는 단계(S602)에서 수신한 복수의 이미지 각각에서 피사체의 영역 이미지를 검출할 수 있다. 여기서, 피사체는 사용자일 수 있으며, 피사체의 영역 이미지는 사용자의 얼굴 영역 이미지일 수 있다.Next, in step S604, the
이어서, 단계(S606)에서, 지도 생성 장치(140)는 단계(S604)에서 검출한 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성할 수 있다. 일 실시예에서, 단계(S606)는 피사체의 영역 이미지의 요각 및 피치각을 검출하는 방식으로 수행될 수 있다.Next, in step S606, the
다음으로, 단계(S608)에서, 지도 생성 장치(140)는 단계(S606)에서 생성하는 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 각각의 영역 이미지를 해당 영역 이미지를 촬영한 제어 대상 객체와 매칭시킬 수 있으며, 각 영역 이미지에 매칭되는 제어 대상 객체를 자세 좌표 정보에 따라 요-피치 좌표계(자세 좌표계)에 매핑하는 방식으로 매핑된 좌표 정보를 생성할 수 있다.Next, in step S608, the
단계(S610)에서, 지도 생성 장치(140)는 단계(S608)에서 생성하는 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 방향 좌표 정보를 생성할 수 있다.In step S610, the
추가적인 단계(미도시)에서 지도 생성 장치(140)는 방향 좌표 정보를 기초로 제어 대상 객체의 상대적인 위치를 결정하고, 제어 대상 객체의 상대적인 위치에 따른 지도를 생성할 수 있다.In an additional step (not shown), the
한편, 앞선 실시예에서는 제어 대상 객체의 상대적인 위치에 따른 2차원의 제어 대상 객체 지도를 생성하는 방법을 설명하였으나, 제어 대상 객체의 위치를 3차원 좌표계에 특정하여 3차원의 제어 대상 객체 지도를 생성하는 것도 가능하다. 이하에서는, 도면을 참조하여 본 개시의 다른 실시예에 따라 3차원의 제어 대상 객체 지도를 생성하는 방법을 상세히 설명한다.Meanwhile, in the previous embodiment, a method for generating a 2D control target object map according to the relative position of the control target object has been described, but a 3D control target object map is generated by specifying the location of the control target object in a 3D coordinate system. It is also possible to do Hereinafter, a method of generating a 3D control target object map according to another embodiment of the present disclosure will be described in detail with reference to the drawings.
본 개시의 다른 실시예에 따르면, 이미지 수신부(202)는 적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하는 기능을 수행할 수 있다. 여기서, 제1 피사체 및 제2 피사체는 서로 다른 위치에 있는 서로 다른 객체 또는 다른 시각에 서로 다른 위치에 있는 동일 객체일 수 있다.According to another embodiment of the present disclosure, the
도 7은 본 개시의 다른 실시예에 따라 복수의 제어 대상 객체가 있는 소정의 공간에서 제1 피사체 및 제2 피사체가 있는 모습을 예시적으로 나타내는 도면이다.7 is a diagram illustratively showing a state in which a first subject and a second subject are present in a predetermined space in which a plurality of control object objects are located according to another embodiment of the present disclosure.
도 7에 도시된 바와 같이, 소정의 공간에는 제어 대상 객체로서 거울(ⓐ), 스피커(ⓑ), 블라인드(ⓒ), 가습기(ⓓ), 텔레비전(ⓔ), 조명(ⓕ), 에어컨(ⓖ) 및 스탠드(ⓗ)가 서로 다른 위치에 배치되어 있다. 도 7에서, 제1 피사체(710)는 사용자로서 조명(ⓕ)을 향해 있고, 제2 피사체(720)는 디스플레이로 블라인드(ⓒ)를 향해 있다. 일 실시예에서, 이미지 수신부(202)는 복수의 제어 대상 객체(ⓐ 내지 ⓗ)로부터 제1 피사체(710) 및 제2 피사체(720)를 포함하는 이미지를 수신할 수 있다.As shown in FIG. 7, a mirror (ⓐ), a speaker (ⓑ), a blind (ⓒ), a humidifier (ⓓ), a television (ⓔ), a lighting (ⓕ), and an air conditioner (ⓖ) are used as objects to be controlled in a predetermined space. and stands ⓗ are disposed in different positions. In FIG. 7 , a
본 개시의 다른 실시예에 따르면, 이미지 수신부(202)는 수신한 이미지 각각에서 각각의 피사체의 영역 이미지를 검출하는 기능을 수행할 수 있다. 일 실시예에서, 이미지 수신부(202)는 제1 피사체의 제1 영역 이미지 및 제2 피사체의 제2 영역 이미지를 검출할 수 있다. 도 7에서, 제1 피사체(710)의 제1 영역 이미지는 사용자의 얼굴 영역 이미지일 수 있으며, 제2 피사체(720)의 제2 영역 이미지는 디스플레이의 화면 영역 이미지일 수 있다.According to another embodiment of the present disclosure, the
본 개시의 다른 실시예에 따르면, 좌표 정보 생성부(204)는 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 기능을 수행할 수 있다. 일 실시예에서, 좌표 정보 생성부(204)는 제1 피사체의 제1 영역 이미지를 분석하여 제1 자세 좌표 정보를 생성할 수 있다. 또한, 일 실시예에서, 좌표 정보 생성부(204)는 제2 피사체의 제2 영역 이미지를 분석하여 제2 자세 좌표 정보를 생성할 수 있다.According to another embodiment of the present disclosure, the coordinate
도 8은 본 개시의 다른 실시예에 따라 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.8 is a diagram exemplarily illustrating a method of generating posture coordinate information by analyzing a region image according to another embodiment of the present disclosure.
도 8에 도시된 바와 같이, 좌표 정보 생성부(204)는 피사체의 영역 이미지의 회전 방향, 회전 각도를 검출할 수 있으며, 이를 기초로 자세 좌표 정보를 생성할 수 있다. 구체적으로, 도 8의 (a)에 도시된 바와 같이, 각각의 얼굴 영역 이미지에서 피치각 및 요각을 검출할 수 있으며, 검출된 피치각 및 요각을 기초로 각각의 얼굴 영역 이미지를 피치각 및 요각에 따른 자세 좌표계에 배치하여 얼굴 영역 이미지의 자세 좌표 정보를 생성할 수 있다. 또한, 도 8의 (b)에 도시된 바와 같이, 디스플레이의 화면 영역 이미지에서 피치각 및 요각을 검출할 수 있으며, 검출된 피치각 및 요각을 기초로 각각의 화면 영역 이미지를 피치각 및 요각에 따른 자세 좌표계에 배치하여 자세 좌표 정보를 생성할 수 있다. 일 실시예에서, 각각의 영역 이미지 중에서 어느 한쪽으로 편향되지 않은, 정면을 향하는 영역 이미지가 자세 좌표계의 원점(0,0)에 배치되도록 구성될 수 있다.As shown in FIG. 8 , the coordinate
본 개시의 다른 실시예에 따르면, 좌표 정보 생성부(204)는 제1 영역 이미지의 제1 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 각각 매핑하여 제1 매핑된 좌표 정보를 생성할 수 있으며, 제2 영역 이미지의 제2 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 각각 매핑하여 제2 매핑된 좌표 정보를 생성할 수 있다. 도 8의 (a)에 도시된 바와 같이, 얼굴 영역 이미지의 자세 좌표계에 해당 얼굴 영역 이미지와 매칭되는 제어 대상 객체(예컨대, 해당 얼굴 영역 이미지를 촬영한 제어 대상 객체)를 매핑할 수 있으며, 도 8의 (b)에 도시된 바와 같이, 화면 영역 이미지의 자세 좌표계에 해당 화면 영역 이미지와 매칭되는 제어 대상 객체(예컨대, 해당 화면 영역 이미지를 촬영한 제어 대상 객체)를 매핑할 수 있다.According to another embodiment of the present disclosure, the coordinate
본 개시의 다른 실시예에 따르면, 좌표 정보 생성부(204)는 제1 매핑된 좌표 정보를 제1 피사체를 기준으로 변환하여 제1 방향 좌표 정보를 생성할 수 있으며, 제2 매핑된 좌표 정보를 제2 피사체를 기준으로 변환하여 제2 방향 좌표 정보를 생성할 수 있다. 일 실시예에서, 좌표 정보 생성부(204)는 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 방향 좌표 정보를 생성할 수 있다.According to another embodiment of the present disclosure, the coordinate
본 개시의 다른 실시예에 따르면, 좌표 정보 생성부(204)는 방향 좌표 정보를 기초로 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 반직선 정보를 생성하는 기능을 수행할 수 있다.According to another embodiment of the present disclosure, the coordinate
도 9는 본 개시의 다른 실시예에 따라 반직선 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.9 is a diagram exemplarily illustrating a method of generating half-line information according to another embodiment of the present disclosure.
도 9의 (a)에 도시된 바와 같이, 좌표 정보 생성부(204)는 제1 방향 좌표 정보를 기초로 기준 공간 상(3차원 좌표계)에서 제1 피사체(910)를 기준으로 복수의 제어 대상 객체(ⓐ 내지 ⓗ) 각각을 반직선으로 연결하여 제1 반직선 정보를 생성할 수 있다. 또한, 좌표 정보 생성부(204)는, 도 9의 (b)에 도시된 바와 같이, 제2 방향 좌표 정보를 기초로 기준 공간 상에서 제2 피사체(920)를 기준으로 복수의 제어 대상 객체(ⓐ 내지 ⓗ) 각각을 반직선으로 연결하여 제2 반직선 정보를 생성할 수 있다.As shown in (a) of FIG. 9 , the coordinate
본 개시의 다른 실시예에 따르면, 제어 대상 객체 위치 결정부(206)는 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 기능을 수행할 수 있다.According to another embodiment of the present disclosure, the control target object
도 10은 본 개시의 다른 실시예에 따라 제어 대상 객체 각각의 위치를 결정하는 방법을 예시적으로 나타내는 도면이다.10 is a diagram exemplarily illustrating a method of determining a location of each control target object according to another embodiment of the present disclosure.
먼저, 도 10의 (a)에 도시된 바와 같이, 기준 공간 상(3차원 좌표계 상)에서 각 피사체와 동일 제어 대상 객체와 연결되는 반직선 사이의 위치 관계를 참조하여, 각 피사체의 위치를 특정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 제1 피사체(1010)와 각각의 제어 대상 객체(ⓐ 내지 ⓗ)를 연결하는 반직선과 제2 피사체(1020)와 각각의 제어 대상 객체(ⓐ 내지 ⓗ)를 연결하는 반직선 사이의 위치 관계를 조정하여 각 피사체의 위치를 특정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 기준 공간 상에서 동일 제어 대상 객체와 연결되는 반직선이 교차하거나, 동일 제어 대상 객체와 연결되는 반직선 사이의 거리가 가장 짧아지도록 동일 제어 대상 객체와 연결되는 반직선 사이의 위치 관계를 조정하는 방식으로 각 피사체의 위치를 특정할 수 있다.First, as shown in (a) of FIG. 10, the location of each subject can be specified by referring to the positional relationship between each subject and a ray connected to the same control target object on the reference space (on the three-dimensional coordinate system). can In one embodiment, the control target object
다음으로, 도 10의 (b)에 도시된 바와 같이, 제어 대상 객체 위치 결정부(206)는 반직선 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로가 서로 교차하는 교차점을 해당 제어 대상 객체의 위치로 결정할 수 있다. 일 실시예에서, 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로 사이에 교차점이 없는 경우, 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 한 점을 적어도 하나의 제어 대상 객체 각각의 위치로 결정할 수 있다. 일 실시예에서, 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로 사이에 교차점이 없는 경우, 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 중점이 기준 공간 상에서 제어 대상 객체가 존재하는 위치로 특정될 수 있다.Next, as shown in (b) of FIG. 10 , the control target object
제어 대상 객체 위치 결정부(206)는 각 제어 대상 객체의 자세도 결정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 각 제어 대상 객체의 카메라 모듈의 자세(요각, 피치각, 롤각)를 산출함으로써, 각 제어 대상 객체의 자세를 결정할 수 있다. 구체적으로, 제어 대상 객체 위치 결정부(206)는 각각의 제어 대상 객체의 카메라 모듈에서 촬영한 피사체의 이미지 상에서 검출된 피사체의 픽셀 좌표를 기준으로 카메라 모듈의 파라미터(가로, 세로 화각 정보)를 참고하여 카메라 모듈의 자세(요각, 피치각, 롤각)를 특정할 수 있다. 예컨대, 도 10의 (c)에 도시된 바와 같이, 텔레비전(ⓔ)의 카메라 모듈에서 촬영한 제1 피사체(1010)의 이미지 상에서 얼굴 영역의 픽셀 좌표(P_e)를 검출하고, 검출된 얼굴 영역의 픽셀 좌표(P_e)를 기준으로 텔레비전(ⓔ)의 카메라 모듈의 가로, 세로 화각 정보를 참고하여 텔레비전(ⓔ)의 카메라 모듈의 자세를 특정할 수 있으며, 특정된 카메라 모듈의 자세로부터 텔레비전(ⓔ)의 자세를 추정할 수 있다. 마찬가지로, 스탠드(ⓗ)의 카메라 모듈에서 촬영한 제1 피사체(1010)의 이미지 상에서 얼굴 영역의 픽셀 좌표(P_h)를 검출하고, 검출된 얼굴 영역의 픽셀 좌표(P_h)를 기준으로 스탠드(ⓗ)의 카메라 모듈의 가로, 세로 화각 정보를 참고하여 스탠드(ⓗ)의 카메라 모듈의 자세를 특정할 수 있으며, 특정된 카메라 모듈의 자세로부터 스탠드(ⓗ)의 자세를 추정할 수 있다.The control target object
한편, 여기서는 제어 대상 객체 위치 결정부(206)에서 제어 대상 객체의 자세를 결정하는 것으로 설명하였으나, 필요에 따라 지도 생성 장치(140)의 다른 구성요소에서 제어 대상 객체의 자세를 결정하는 기능이 구현될 수도 있을 것이다.Meanwhile, although it has been described here that the control target object
이처럼, 제어 대상 객체 위치 결정부(206)는 3차원 공간 상에서의 각각의 제어 대상 객체의 위치 뿐만 아니라 자세도 결정할 수 있으며, 이에 따라 각각의 제어 대상 객체의 위치에 결정된 자세로 제어 대상 객체를 배치시킴으로써, 3차원의 제어 대상 객체의 지도를 생성할 수 있다.In this way, the control target
한편, 본 개시의 일 실시예에 따르면, 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 과정에서 피사체의 영역 이미지의 롤각(roll angle)에 대하여 보정을 수행할 수 있다.Meanwhile, according to an embodiment of the present disclosure, a roll angle of an image of a region of a subject may be corrected in a process of determining a position of each of the at least one control target object.
본 개시의 다른 실시예에 따르면, 제어 대상 객체 위치 결정부(206)는 각 피사체의 롤각(roll angle) 및 적어도 하나의 제어 대상 객체의 롤각을 결정하는 기능을 수행할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 제1 피사체의 제1 영역의 롤각 및 제2 피사체의 제2 영역의 롤각을 결정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 제어 대상 객체의 카메라 모듈의 롤각을 결정할 수 있다.According to another embodiment of the present disclosure, the control target object
도 11 및 도 12는 본 개시의 다른 실시예에 따라 피사체의 영역 이미지의 롤각을 보정하는 방법을 예시적으로 나타내는 도면이다.11 and 12 exemplarily illustrate a method of correcting a roll angle of an image of an area of a subject according to another embodiment of the present disclosure.
먼저, 제어 대상 객체 위치 결정부(206)는, 도 11의 (a)에 도시된 바와 같이, 각각의 제어 대상 객체의 카메라 모듈에서 제1 피사체인 사용자의 얼굴 영역 이미지의 롤각을 검출할 수 있다. 예를 들어, 각각의 제어 대상 객체에 의해 검출된 사용자의 얼굴 영역 이미지의 롤각은, 거울(ⓐ)은 -2°, 스피커(ⓑ)는 8°, 블라인드(ⓒ)는 -2°, 가습기(ⓓ)는 -2°, 텔레비전(ⓔ)은 -26°, 조명(ⓕ)은 -2°, 에어컨(ⓖ)은 11°, 스탠드(ⓗ)는 -2°일 수 있다. 또한, 제어 대상 객체 위치 결정부(206)는, 도 11의 (b)에 도시된 바와 같이, 각각의 제어 대상 객체의 카메라 모듈에서 제2 피사체인 디스플레이의 화면 영역 이미지의 롤각을 검출할 수 있다. 예를 들어, 각각의 제어 대상 객체에 의해 검출된 디스플레이의 화면 영역 이미지의 롤각은, 거울(ⓐ)은 0°스피커(ⓑ)는 10°, 블라인드(ⓒ)는 0°, 가습기(ⓓ)는 0°, 텔레비전(ⓔ)은 -24°, 조명(ⓕ)은 0°, 에어컨(ⓖ)은 13°, 스탠드(ⓗ)는 0°일 수 있다.First, as shown in FIG. 11(a) , the control target
일 실시예에서, 제어 대상 객체 위치 결정부(206)는, 제어 대상 객체의 카메라 모듈에서 검출한 피사체의 롤각에 기반하여 피사체의 영역의 롤각을 결정할 수 있다. 구체적으로, 각 제어 대상 객체에서 검출한 롤각 중 평균치에서 크게 벗어나는 아웃라이어(outlier)를 제외하고 유효한 롤각의 평균을 계산하여 해당 피사체의 영역의 롤각으로 결정할 수 있다. 이에 따라, 도 11의 (a)에서, 제1 피사체인 사용자의 얼굴 영역의 롤각은 -2°로 결정할 수 있으며, 도 11의 (b)에서, 제2 피사체인 디스플레이의 화면 영역의 롤각은 0°로 결정할 수 있다.In an embodiment, the control target object
이어서, 도 12에 도시된 바와 같이, 제어 대상 객체 위치 결정부(206)는, 피사체의 영역의 롤각을 기반으로 각 제어 대상 객체의 카메라 모듈의 롤각을 결정할 수 있다. 구체적으로, 도 12의 (a)에 도시된 바와 같이, 특정한 얼굴 영역의 롤각(즉, -2°)을 기반으로 제어 대상 객체에서 검출한 얼굴 영역 이미지의 롤각에 대하여 보정을 수행하면, 스피커(ⓑ)는 10°, 텔레비전(ⓔ) 은 -24°, 에어컨(ⓖ)은 13°가 되는데, 이러한 차이는 해당 제어 대상 객체의 카메라 모듈의 회전에 의해 발생한 오차로 판단하여, 해당 제어 대상 객체의 카메라 모듈의 롤각을 결정할 수 있다. 마찬가지로, 도 12의 (b)에 도시된 바와 같이, 특정한 화면 영역의 롤각(즉, 0°)을 기반으로 제어 대상 객체에서 검출한 화면 영역 이미지의 롤각에 대하여 보정을 수행하면, 스피커(ⓑ)는 10°, 텔레비전(ⓔ)은 -24°, 에어컨(ⓖ)은 13°가 되는데, 이러한 차이 역시 해당 제어 대상 객체의 카메라 모듈의 회전에 의해 발생한 오차로 판단하여, 해당 제어 대상 객체의 카메라 모듈의 롤각을 결정할 수 있다. 즉, 스피커(ⓑ)의 카메라 모듈의 롤각은 10°, 텔레비전(ⓔ)의 카메라 모듈의 롤각은 -24°, 에어컨(ⓖ)의 카메라 모듈의 롤각은 13°으로 결정할 수 있다.Subsequently, as shown in FIG. 12 , the control target object
도 13은 본 개시의 다른 실시예에 따라 제어 대상 객체의 지도를 생성하는 방법을 예시적으로 보여주는 동작 흐름도이다.13 is an operational flowchart exemplarily illustrating a method of generating a map of a control target object according to another embodiment of the present disclosure.
도 13을 참조하면, 본 개시의 다른 실시예에 따른 제어 대상 객체의 지도 생성 방법은 이미지를 수신하는 단계(S1302), 영역 이미지를 검출하는 단계(S1304), 자세 좌표 정보를 생성하는 단계(S1306), 매핑된 좌표 정보를 생성하는 단계(S1308), 방향 좌표 정보를 생성하는 단계(S1310), 반직선 정보를 생성하는 단계(S1312) 및 제어 대상 객체의 위치를 결정하는 단계(S1314)를 포함할 수 있다. Referring to FIG. 13 , a method for generating a map of a control target object according to another embodiment of the present disclosure includes receiving an image (S1302), detecting an area image (S1304), and generating posture coordinate information (S1306). ), generating mapped coordinate information (S1308), generating direction coordinate information (S1310), generating radial line information (S1312), and determining the location of the object to be controlled (S1314). can
먼저, 단계(S1302)에서, 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신할 수 있다. 여기서, 제1 피사체 및 제2 피사체는 서로 다른 위치에 있는 서로 다른 객체 또는 다른 시각에 서로 다른 위치에 있는 동일 객체일 수 있다.First, in step S1302, the
이어서, 단계(S1304)에서, 지도 생성 장치(140)는 수신한 이미지 각각에서 각각의 피사체의 영역 이미지를 검출할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 이미지 수신부(202)는 제1 피사체의 제1 영역 이미지 및 제2 피사체의 제2 영역 이미지를 검출할 수 있다. 여기서, 제1 피사체의 제1 영역 이미지는 사용자의 얼굴 영역 이미지일 수 있으며, 제2 피사체의 제2 영역 이미지는 디스플레이의 화면 영역 이미지일 수 있다. Subsequently, in step S1304, the
다음으로, 단계(S1306)에서, 지도 생성 장치(140)는 단계(S1304)에서 검출한 영역 이미지를 분석하여 자세 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 좌표 정보 생성부(204)는 제1 피사체의 제1 영역 이미지를 분석하여 제1 자세 좌표 정보를 생성할 수 있으며, 제2 피사체의 제2 영역 이미지를 분석하여 제2 자세 좌표 정보를 생성할 수 있다.Next, in step S1306, the
단계(S1308)에서, 지도 생성 장치(140)는 단계(S1306)에서 생성된 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 좌표 정보 생성부(204)는 제1 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 각각 매핑하여 제1 매핑된 좌표 정보를 생성할 수 있으며, 제2 자세 좌표 정보에 제어 대상 객체를 각각 매핑하여 제2 매핑된 좌표 정보를 생성할 수 있다.In step S1308, the
단계(S1310)에서, 지도 생성 장치(140)는 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성할 수 있다. 일 실시예에서, 좌표 정보 생성부(204)는 제1 매핑된 좌표 정보를 제1 피사체를 기준으로 변환하여 제1 방향 좌표 정보를 생성할 수 있으며, 제2 매핑된 좌표 정보를 제2 피사체를 기준으로 변환하여 제2 방향 좌표 정보를 생성할 수 있다.In step S1310, the
단계(S1312)에서, 지도 생성 장치(140)는 방향 좌표 정보를 기초로 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 반직선 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 좌표 정보 생성부(204)는 제1 방향 좌표 정보를 기초로 제1 피사체를 기준으로 복수의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성할 수 있으며, 제2 방향 좌표 정보를 기초로 제2 피사체를 기준으로 복수의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성할 수 있다.In step S1312, the
단계(S1314)에서, 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체 각각의 위치를 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 제어 대상 객체 위치 결정부(206)는 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로가 서로 교차하는 교차점을 해당 제어 대상 객체의 위치로 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 제어 대상 객체 위치 결정부(206)는 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 한 점을 적어도 하나의 제어 대상 객체 각각의 위치로 결정할 수 있다.In step S1314, the
또한, 단계(S1314)에서, 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체 각각의 자세를 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체의 카메라 모듈 각각의 자세를 산출하고, 이로부터 적어도 하나의 제어 대상 객체 각각의 자세를 결정할 수 있다. 구체적으로, 지도 생성 장치(140)는 각각의 제어 대상 객체의 카메라 모듈에서 촬영한 이미지 상에서 검출된 피사체의 픽셀 좌표를 기준으로 제어 대상 객체의 카메라 모듈의 파라미터(가로, 세로 화각 정보)를 참고하여 제어 대상 객체의 카메라 모듈의 자세(요각, 피치각, 롤각)를 산출할 수 있고, 이로부터 적어도 하나의 제어 대상 객체의 자세를 결정할 수 있다.Also, in step S1314, the
한편, 단계(S1314)에서, 지도 생성 장치(140)는 각 피사체의 롤각 및 각 제어 대상 객체의 롤각을 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 아웃라이어를 제외하고 유효한 롤각의 평균을 해당 피사체의 영역의 롤각으로 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 제1 피사체의 제1 영역의 롤각을 기반으로 적어도 하나의 제어 대상 객체의 롤각을 결정할 수 있으며, 제2 피사체의 제2 영역의 롤각을 기반으로 적어도 하나의 제어 대상 객체의 롤각을 결정할 수 있다.Meanwhile, in step S1314, the
추가적인 단계(미도시)에서 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체 각각의 위치와 자세를 기초로 제어 대상 객체의 지도(3차원 지도)를 생성할 수 있다.In an additional step (not shown), the
이처럼, 본 실시예에서는, 둘 이상의 피사체를 기준으로 각 제어 대상 객체의 좌표 정보를 생성하여 제어 대상 객체의 지도를 생성할 수 있다. 특히, 각각의 피사체와 각각의 제어 대상 객체를 반직선으로 연결하여 반직선 정보를 생성하고, 반직선 정보의 반직선 경로 사이의 위치 관계를 참조하여 제어 대상 객체의 위치를 결정함으로써, 3차원의 제어 대상 객체의 지도를 생성할 수 있다. As such, in the present embodiment, a map of the control target object may be created by generating coordinate information of each control target object based on two or more subjects. In particular, by connecting each subject and each control target object with a ray to generate ray information, and determining the position of the control target object by referring to the positional relationship between the ray paths of the ray information, the three-dimensional control target object You can create maps.
이상 설명된 본 개시에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 개시에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present disclosure described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer readable recording medium. A computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present disclosure, or may be known and usable to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler. A hardware device may be modified with one or more software modules to perform processing according to the present disclosure and vice versa.
이상 본 개시를 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예에 의해 설명하였으나, 상기 실시예는 본 개시의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 개시가 이에 한정되는 것은 아니며, 본 개시가 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.Although the present disclosure has been described with specific details and limited examples, such as specific components, the above embodiments are only provided to help a more general understanding of the present disclosure, and the present disclosure is not limited thereto, and the present disclosure is not limited thereto. Those skilled in the art can make various modifications and variations from these descriptions.
따라서, 본 개시의 사상은 앞서 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 청구범위뿐만 아니라 이 청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 개시의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present disclosure should not be limited to the embodiments described above and should not be defined, and it can be said that not only the claims described below but also all modifications equivalent or equivalent to these claims fall within the scope of the spirit of the present disclosure. will be.
100: 제어 대상 객체 제어 시스템
110: 사용자 단말
120: 제어 대상 객체
130: 통신망
140: 지도 생성 장치100: control target object control system
110: user terminal
120: object to be controlled
130: communication network
140: map generating device
Claims (14)
적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계;
상기 적어도 하나의 이미지 각각에서 상기 피사체의 영역 이미지를 검출하는 단계;
상기 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 단계;
상기 자세 좌표 정보에 상기 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하는 단계; 및
상기 매핑된 좌표 정보를 상기 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 단계;
를 포함하는 제어 대상 객체의 지도를 생성하는 방법.As a method of generating a map of a control target object,
receiving at least one image including a subject from at least one control target object;
detecting an area image of the subject from each of the at least one image;
generating posture coordinate information by analyzing the area image;
generating mapped coordinate information by mapping the at least one control target object to the posture coordinate information; and
converting the mapped coordinate information based on the subject to generate direction coordinate information;
A method of generating a map of a control target object including a.
상기 자세 좌표 정보 생성 단계는, 상기 영역 이미지의 요각 및 피치각을 검출하는 방식으로 수행되는, 제어 대상 객체의 지도를 생성하는 방법.According to claim 1,
The generating of the posture coordinate information is performed by detecting yaw angles and pitch angles of the region image.
상기 매핑된 좌표 정보 생성 단계는, 상기 영역 이미지를 해당 영역 이미지를 촬영한 제어 대상 객체와 매칭시키는 단계를 포함하는, 제어 대상 객체의 지도를 생성하는 방법.According to claim 1,
The method of generating a map of a control target object, wherein the generating of the mapped coordinate information includes matching the region image with a control target object obtained by photographing a corresponding region image.
상기 방향 좌표 정보 생성 단계는, 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 수행되는, 제어 대상 객체의 지도를 생성하는 방법.According to claim 1,
The method of generating a map of a control target object, wherein the generating of the directional coordinate information is performed by converting posture coordinate information according to yaw and pitch angles into directional coordinate information according to up, down, left and right directions.
적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계;
상기 적어도 하나의 이미지 각각에서 상기 제1 피사체의 제1 영역 이미지 및 상기 제2 피사체의 제2 영역 이미지를 검출하는 단계;
상기 제1 영역 이미지 및 상기 제2 영역 이미지를 각각 분석하여 제1 자세 좌표 정보 및 제2 자세 좌표 정보를 생성하는 단계;
상기 제1 자세 좌표 정보 및 상기 제2 자세 좌표 정보에 상기 적어도 하나의 제어 대상 객체를 각각 매핑하여 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 생성하는 단계;
상기 제1 매핑된 좌표 정보 및 상기 제2 매핑된 좌표 정보를 각각 상기 제1 피사체 및 상기 제2 피사체를 기준으로 변환하여 제1 방향 좌표 정보 및 제2 방향 좌표 생성 정보를 생성하는 단계;
상기 제1 방향 좌표 정보를 기초로 상기 제1 피사체를 기준으로 상기 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성하고, 상기 제2 방향 좌표 정보를 기초로 상기 제2 피사체를 기준으로 상기 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성하는 단계; 및
상기 제1 반직선 정보 및 상기 제2 반직선 정보를 기초로 상기 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 단계;
를 포함하는 제어 대상 객체의 지도를 생성하는 방법.As a method of generating a map of a control target object,
receiving at least one image including a first subject and a second subject from at least one control target object;
detecting a first area image of the first subject and a second area image of the second subject from each of the at least one image;
generating first posture coordinate information and second posture coordinate information by analyzing the first region image and the second region image, respectively;
generating first mapped coordinate information and second mapped coordinate information by mapping the at least one control target object to the first posture coordinate information and the second posture coordinate information, respectively;
converting the first mapped coordinate information and the second mapped coordinate information based on the first subject and the second subject, respectively, to generate first direction coordinate information and second direction coordinate generation information;
Based on the first direction coordinate information, first half line information is generated by connecting each of the at least one control target object with a half line based on the first subject, and the second subject based on the second direction coordinate information. generating second half line information by connecting each of the at least one control target object with a half line based on; and
determining a location of each of the at least one control target object based on the first and second linear information;
A method of generating a map of a control target object including a.
상기 제어 대상 객체 위치 결정 단계는,
상기 적어도 하나의 제어 대상 객체 각각에 대한 상기 제1 반직선 정보의 반직선 경로와 상기 제2 반직선 정보의 반직선 경로가 서로 교차하는 교차점을 해당 제어 대상 객체의 위치로 결정하는 단계; 또는
상기 적어도 하나의 제어 대상 객체 각각에 대한 상기 제1 반직선 정보의 반직선 경로와 상기 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 한 점을 상기 적어도 하나의 제어 대상 객체 각각의 위치로 결정하는 단계
를 포함하는, 제어 대상 객체의 지도를 생성하는 방법.According to claim 5,
In the step of determining the position of the object to be controlled,
determining an intersection point where a ray path of the first ray information and a ray path of the second linear information for each of the at least one control target object intersect as a position of the corresponding control target object; or
Determining a point of a shortest connecting line between a ray path of the first ray information and a ray path of the second linear information for each of the at least one control target object as the position of each of the at least one control target object;
Including, a method for generating a map of the control target object.
상기 제어 대상 객체 위치 결정 단계는 상기 적어도 하나의 제어 대상 객체 각각의 자세를 결정하는 단계를 포함하는, 제어 대상 객체의 지도를 생성하는 방법.According to claim 5,
The method of generating a map of a control target object, wherein the determining of the control target object position comprises determining a posture of each of the at least one control target object.
상기 제어 대상 객체 자세 결정 단계에서는, 상기 적어도 하나의 제어 대상 객체의 카메라 모듈 각각의 자세로부터 상기 적어도 하나의 제어 대상 객체 각각의 자세를 결정하는, 제어 대상 객체의 지도를 생성하는 방법.According to claim 7,
In the determining of the posture of the object to be controlled, the posture of each of the at least one target object to be controlled is determined from the posture of each of the camera modules of the at least one object to be controlled.
상기 제어 대상 객체 위치 결정 단계는,
상기 제1 피사체의 제1 영역의 롤각 및 상기 제2 피사체의 제2 영역의 롤각을 결정하는 단계; 및
상기 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계를 더 포함하는,
제어 대상 객체의 지도를 생성하는 방법.According to claim 5,
In the step of determining the position of the object to be controlled,
determining a roll angle of a first area of the first subject and a roll angle of a second area of the second subject; and
Further comprising determining a roll angle of the at least one control target object,
How to create a map of controlled objects.
상기 제1 피사체의 제1 영역의 롤각 및 상기 제2 피사체의 제2 영역의 롤각 결정 단계에서는,
아웃라이어를 제외하고 유효한 롤각의 평균을 해당 피사체의 영역의 롤각으로 결정하는, 제어 대상 객체의 지도를 생성하는 방법.According to claim 9,
In the step of determining the roll angle of the first area of the first subject and the roll angle of the second area of the second subject,
A method of generating a map of a control target object in which an average of effective roll angles is determined as a roll angle of a region of a corresponding subject, excluding outliers.
상기 적어도 하나의 제어 대상 객체의 롤각 결정 단계는,
상기 제1 피사체의 제1 영역의 롤각을 기반으로 상기 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계; 및
상기 제2 피사체의 제2 영역의 롤각을 기반으로 상기 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계를 포함하는, 제어 대상 객체의 지도를 생성하는 방법.According to claim 9,
The step of determining the roll angle of the at least one control target object,
determining a roll angle of the at least one control target object based on a roll angle of a first region of the first subject; and
and determining a roll angle of the at least one control target object based on a roll angle of a second region of the second subject.
적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하고, 상기 적어도 하나의 이미지 각각에서 상기 피사체의 영역 이미지를 검출하는 이미지 수신부,
상기 영역 이미지를 분석하여 자세 좌표 정보를 생성하고, 상기 자세 좌표 정보에 상기 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하며, 상기 매핑된 좌표 정보를 상기 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 좌표 정보 생성부 및
상기 방향 좌표 정보를 기초로 상기 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 제어 대상 객체 위치 결정부
를 포함하는 제어 대상 객체의 지도를 생성하는 장치.A device for generating a map of a control target object,
an image receiver configured to receive at least one image including a subject from at least one control target object, and to detect an image of a region of the subject in each of the at least one image;
Posture coordinate information is generated by analyzing the area image, mapped coordinate information is generated by mapping the at least one control target object to the posture coordinate information, and the mapped coordinate information is converted based on the subject to determine direction A coordinate information generation unit for generating coordinate information; and
A control target object location determiner configured to determine a position of each of the at least one control target object based on the direction coordinate information.
A device for generating a map of a control target object comprising a.
적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하고, 상기 적어도 하나의 이미지 각각에서 상기 제1 피사체의 제1 영역 이미지 및 상기 제2 피사체의 제2 영역 이미지를 검출하는 이미지 수신부,
상기 제1 영역 이미지 및 상기 제2 영역 이미지를 각각 분석하여 제1 자세 좌표 정보 및 제2 자세 좌표 정보를 생성하고, 상기 제1 자세 좌표 정보 및 상기 제2 자세 좌표에 각각 상기 적어도 하나의 제어 대상 객체를 매핑하여 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 생성하며, 상기 제1 매핑된 좌표 정보 및 상기 제2 매핑된 좌표 정보를 각각 상기 제1 피사체 및 상기 제2 피사체를 기준으로 변환하여 제1 방향 좌표 정보 및 제2 방향 좌표 정보를 생성하고, 상기 제1 방향 좌표 정보를 기초로 상기 제1 피사체를 기준으로 상기 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성하며, 상기 제2 방향 좌표 정보를 기초로 상기 제2 피사체를 기준으로 상기 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성하는 좌표 정보 생성부 및
상기 제1 반직선 정보 및 상기 제2 반직선 정보를 기초로 상기 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 제어 대상 객체 위치 결정부
를 포함하는 제어 대상 객체의 지도를 생성하는 장치.A device for generating a map of a control target object,
Receiving at least one image including a first subject and a second subject from at least one control target object, and in each of the at least one image, a first area image of the first subject and a second area of the second subject an image receiver for detecting an image;
Analyzing the first region image and the second region image, respectively, first posture coordinate information and second posture coordinate information are generated, and the at least one control target is assigned to the first posture coordinate information and the second posture coordinate, respectively. An object is mapped to generate first mapped coordinate information and second mapped coordinate information, and the first mapped coordinate information and the second mapped coordinate information are based on the first subject and the second subject, respectively. transform to generate first direction coordinate information and second direction coordinate information, and connect each of the at least one control target object with a half line based on the first subject based on the first direction coordinate information to obtain the first half line information. And a coordinate information generation unit configured to generate second half line information by connecting each of the at least one control target object with a half line based on the second subject based on the second direction coordinate information, and
A control target object position determination unit determining a position of each of the at least one control target object based on the first and second linear line information.
A device for generating a map of a control target object comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220023742A KR20230126495A (en) | 2022-02-23 | 2022-02-23 | Method, system and non-transitory computer-readable recording medium for generating a map of controlled object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220023742A KR20230126495A (en) | 2022-02-23 | 2022-02-23 | Method, system and non-transitory computer-readable recording medium for generating a map of controlled object |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230126495A true KR20230126495A (en) | 2023-08-30 |
Family
ID=87846252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220023742A KR20230126495A (en) | 2022-02-23 | 2022-02-23 | Method, system and non-transitory computer-readable recording medium for generating a map of controlled object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230126495A (en) |
-
2022
- 2022-02-23 KR KR1020220023742A patent/KR20230126495A/en active IP Right Grant
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220375124A1 (en) | Systems and methods for video communication using a virtual camera | |
JP6445515B2 (en) | Detection of gestures made using at least two control objects | |
US10356393B1 (en) | High resolution 3D content | |
US11472038B2 (en) | Multi-device robot control | |
US11089427B1 (en) | Immersive augmented reality experiences using spatial audio | |
KR102481486B1 (en) | Method and apparatus for providing audio | |
US11869156B2 (en) | Augmented reality eyewear with speech bubbles and translation | |
WO2017043145A1 (en) | Information processing device, information processing method, and program | |
US20230259261A1 (en) | Method for Moving Object, Storage Medium and Electronic device | |
US11740313B2 (en) | Augmented reality precision tracking and display | |
US11741679B2 (en) | Augmented reality environment enhancement | |
JP2015118442A (en) | Information processor, information processing method, and program | |
US20240045494A1 (en) | Augmented reality with eyewear triggered iot | |
US20230258756A1 (en) | Augmented reality precision tracking and display | |
JP2017016166A (en) | Image processing apparatus and image processing method | |
JP6413521B2 (en) | Display control method, information processing program, and information processing apparatus | |
JP6374203B2 (en) | Display system and program | |
KR20180036359A (en) | Method for displaying an image and an electronic device thereof | |
KR20230126495A (en) | Method, system and non-transitory computer-readable recording medium for generating a map of controlled object | |
WO2022199597A1 (en) | Method, apparatus and system for cropping image by vr/ar device | |
US10795432B1 (en) | Maintaining virtual object location | |
JP2015194880A (en) | display system and program | |
US20240077935A1 (en) | Virtual interfaces for controlling iot devices | |
US20240077934A1 (en) | Virtual ar interfaces for controlling iot devices using mobile device orientation sensors | |
WO2023284072A1 (en) | Method and apparatus for controlling projection device, and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |