KR20230126495A - Method, system and non-transitory computer-readable recording medium for generating a map of controlled object - Google Patents

Method, system and non-transitory computer-readable recording medium for generating a map of controlled object Download PDF

Info

Publication number
KR20230126495A
KR20230126495A KR1020220023742A KR20220023742A KR20230126495A KR 20230126495 A KR20230126495 A KR 20230126495A KR 1020220023742 A KR1020220023742 A KR 1020220023742A KR 20220023742 A KR20220023742 A KR 20220023742A KR 20230126495 A KR20230126495 A KR 20230126495A
Authority
KR
South Korea
Prior art keywords
control target
target object
coordinate information
subject
image
Prior art date
Application number
KR1020220023742A
Other languages
Korean (ko)
Inventor
김석중
Original Assignee
주식회사 브이터치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브이터치 filed Critical 주식회사 브이터치
Priority to KR1020220023742A priority Critical patent/KR20230126495A/en
Publication of KR20230126495A publication Critical patent/KR20230126495A/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/004Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Abstract

본 개시는 제어 대상 객체의 지도를 생성하는 방법, 장치, 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다. 본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 방법은 적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계; 적어도 하나의 이미지 각각에서 피사체의 영역 이미지를 검출하는 단계; 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 단계; 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하는 단계; 및 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 단계; 를 포함한다.The present disclosure relates to a method for generating a map of a control target object, an apparatus, and a non-transitory computer readable recording medium. A method for generating a map of a control target object according to an embodiment of the present disclosure includes receiving at least one image including a subject from at least one control target object; detecting an area image of a subject in each of the at least one image; generating posture coordinate information by analyzing the region image; generating mapped coordinate information by mapping at least one control target object to posture coordinate information; and generating direction coordinate information by converting the mapped coordinate information based on the subject; includes

Description

제어 대상 객체의 지도를 생성하는 방법, 장치, 비일시성의 컴퓨터 판독 가능 기록 매체{METHOD, SYSTEM AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR GENERATING A MAP OF CONTROLLED OBJECT}Method, apparatus, and non-temporary computer readable recording medium for generating a map of a control object

본 개시는 제어 대상 객체의 지도를 생성하는 방법, 장치, 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것으로서, 보다 상세하게는 사용자를 기준으로 제어 대상 객체의 위치를 결정하여 제어 대상 객체의 지도를 생성하는 방법, 장치 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다.The present disclosure relates to a method, apparatus, and non-transitory computer readable recording medium for generating a map of a control object, and more particularly, to generate a map of a control object by determining a location of a control object based on a user. It relates to a method, apparatus, and non-transitory computer readable recording medium.

최근, 사물 인터넷에 관한 관심이 높아지고 관련 기술 분야의 개발이 활발하게 진행됨에 따라, 사물 인터넷 기술에 기반하여 기기 또는 사물 등을 제어하는 기술들이 소개되고 있다. 특히, 모바일 디바이스, 태블릿, 랩탑, PC, 가전 디바이스, 자동차 등 다양한 사용 환경에서 사용자의 모션 또는 조작에 기반하여 디바이스, 객체 등을 제어하는 것을 지원하는 기술들이 소개되고 있다.Recently, as interest in the Internet of Things increases and development of related technologies is actively progressed, technologies for controlling devices or objects based on the Internet of Things technology have been introduced. In particular, technologies for supporting control of devices, objects, and the like based on user's motion or manipulation in various use environments such as mobile devices, tablets, laptops, PCs, home appliances, and automobiles have been introduced.

복수의 제어 가능한 객체가 있는 IoT 환경에서 객체의 물리적인 위치에 따라 객체를 제어하는 것을 지원하기 위해 객체의 위치를 측정하고 측정된 객체의 위치를 기반으로 디지털 트윈 지도를 생성하는 기술이 알려져 있다. 예를 들어, 2D 카메라 또는 3D 카메라 등을 이동시키며 공간을 스캔하고, 공간을 스캔하는 과정에서 객체의 위치를 함께 검출하는 기술이 알려져 있다. 그러나, 이러한 방식은 공간을 스캔하는 과정에 많은 노력을 필요로 하며, 객체의 실시간 위치 검출이 불가능하기 때문에 스캔 이후에 객체의 위치가 변경되는 경우에 오차가 발생하는 문제가 있다. 또한, 비가청 대역의 소리(예컨대, 초음파)를 여러 위치에서 발생시켜 현재 위치에서의 거리를 추정하는 방식으로 객체의 위치를 검출하는 기술이 알려져 있다. 그러나, 이러한 방식은 신호 발생기의 위치가 정확히 설정되어야 하고, 신호 발생기의 위치가 변경되는 경우에 오차가 발생하는 문제가 있다.In order to support controlling an object according to its physical location in an IoT environment with a plurality of controllable objects, a technique for measuring the location of an object and generating a digital twin map based on the measured location of the object is known. For example, a technique of scanning a space by moving a 2D camera or a 3D camera and detecting the position of an object together in the process of scanning the space is known. However, this method requires a lot of effort in the process of scanning the space, and since it is impossible to detect the location of the object in real time, there is a problem in that an error occurs when the location of the object is changed after scanning. In addition, a technique for detecting the location of an object by generating inaudible band sounds (eg, ultrasonic waves) at various locations and estimating a distance from the current location is known. However, this method has a problem in that the position of the signal generator must be accurately set, and an error occurs when the position of the signal generator is changed.

따라서, 간단하면서도 정확한 방법으로 객체들의 물리적인 위치를 검출하고 이를 기반으로 객체의 디지털 트윈 지도를 생성함으로써, 객체를 제어하는 데 있어서 사용자의 편의성을 향상시킬 수 있는 기술의 개발이 여전히 요구되고 있는 실정이다.Therefore, there is still a need to develop a technology that can improve user convenience in controlling objects by detecting the physical locations of objects in a simple and accurate way and generating a digital twin map of objects based on this. am.

본 개시는 상술한 종래기술의 문제점을 해결하기 위한 것으로서, 제어 대상 객체의 상대적인 위치에 기반하여 제어 대상 객체의 지도를 생성하는 방법 및 장치를 제공하는 것에 그 목적이 있다.An object of the present disclosure is to provide a method and apparatus for generating a map of a control target object based on a relative location of the control target object, in order to solve the above-described problems of the prior art.

또한, 본 개시는 기준 공간 상에서의 제어 대상 객체의 위치를 검출하여 3차원의 제어 대상 객체의 지도를 생성하는 방법 및 장치를 제공하는 것에 그 목적이 있다.In addition, an object of the present disclosure is to provide a method and apparatus for generating a 3D control target object map by detecting a position of the control target object on a reference space.

본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 방법은 적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계; 적어도 하나의 이미지 각각에서 피사체의 영역 이미지를 검출하는 단계; 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 단계; 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하는 단계; 및 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 단계; 를 포함한다.A method for generating a map of a control target object according to an embodiment of the present disclosure includes receiving at least one image including a subject from at least one control target object; detecting an area image of a subject in each of the at least one image; generating posture coordinate information by analyzing the region image; generating mapped coordinate information by mapping at least one control target object to posture coordinate information; and generating direction coordinate information by converting the mapped coordinate information based on the subject; includes

본 개시의 일 실시예에 따르면, 자세 좌표 정보 생성 단계는, 영역 이미지의 요각 및 피치각을 검출하는 방식으로 수행될 수 있다.According to an embodiment of the present disclosure, the generating of the attitude coordinate information may be performed by detecting yaw and pitch angles of the area image.

본 개시의 일 실시예에 따르면, 매핑된 좌표 정보 생성 단계는, 영역 이미지를 해당 영역 이미지를 촬영한 제어 대상 객체와 매칭시키는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the generating of mapped coordinate information may include matching a region image with a control target object obtained by capturing a corresponding region image.

본 개시의 일 실시예에 따르면, 방향 좌표 정보 생성 단계는, 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 수행될 수 있다.According to an embodiment of the present disclosure, the generating of directional coordinate information may be performed by converting posture coordinate information according to yaw and pitch angles into directional coordinate information according to up, down, left, and right directions.

본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 방법은 적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계; 적어도 하나의 이미지 각각에서 제1 피사체의 제1 영역 이미지 및 제2 피사체의 제2 영역 이미지를 검출하는 단계; 제1 영역 이미지 및 제2 영역 이미지를 분석하여 제1 자세 좌표 정보 및 제2 자세 좌표 정보를 생성하는 단계; 제1 자세 좌표 정보 및 제2 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 각각 매핑하여 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 생성하는 단계; 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 각각 제1 피사체 및 제2 피사체를 기준으로 변환하여 제1 방향 좌표 정보 및 제2 방향 좌표 정보를 생성하는 단계; 제1 방향 좌표 정보를 기초로 제1 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성하고, 제2 방향 좌표 정보를 기초로 제2 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성하는 단계; 및 제1 반직선 정보 및 제2 반직선 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 단계;를 포함한다.A method of generating a map of a control target object according to an embodiment of the present disclosure includes receiving at least one image including a first subject and a second subject from at least one control target object; detecting a first area image of a first subject and a second area image of a second subject from each of the at least one image; generating first posture coordinate information and second posture coordinate information by analyzing the first area image and the second area image; generating first mapped coordinate information and second mapped coordinate information by mapping at least one control target object to first posture coordinate information and second posture coordinate information, respectively; generating first direction coordinate information and second direction coordinate information by converting first mapped coordinate information and second mapped coordinate information based on the first subject and the second subject, respectively; Based on the first direction coordinate information, first half line information is generated by connecting each of at least one control target object with a half line based on the first subject based on the first direction coordinate information, and at least one control target object based on the second subject based on the second direction coordinate information. generating second half line information by connecting each of the control target objects in a half line; and determining a location of each of the at least one control target object based on the first and second linear information.

본 개시의 일 실시예에 따르면, 제어 대상 객체 위치 결정 단계는, 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로가 서로 교차하는 교차점을 해당 제어 대상 객체의 위치로 결정하는 단계; 또는 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 한 점을 적어도 하나의 제어 대상 객체 각각의 위치로 결정하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the step of determining the position of the control target object may include determining an intersection point where a ray path of first ray information and a ray path of second linear information for each of the at least one control target object intersect with each other. determining the position of the object; or determining a point of a shortest connecting line between a ray path of the first ray information and a ray path of the second linear information for each of the at least one control target object as the position of each of the at least one control target object. there is.

본 개시의 일 실시예에 따르면, 제어 대상 객체 위치 결정 단계는 적어도 하나의 제어 대상 객체 각각의 자세를 결정하는 단계를 포함할 수 있다. 여기서, 제어 대상 객체 자세 결정 단계에서는, 적어도 하나의 제어 대상 객체의 카메라 모듈 각각의 자세로부터 적어도 하나의 제어 대상 객체 각각의 자세를 결정할 수 있다.According to an embodiment of the present disclosure, determining the location of the object to be controlled may include determining the posture of each of the at least one object to be controlled. Here, in the step of determining the posture of the object to be controlled, the posture of each of the at least one object to be controlled may be determined from the posture of each camera module of the at least one object to be controlled.

본 개시의 일 실시예에 따르면, 제어 대상 객체 위치 결정 단계는, 제1 피사체의 제1 영역의 롤각 및 제2 피사체의 제2 영역의 롤각을 결정하는 단계; 및 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계를 포함할 수 있다. 여기서, 제1 피사체의 제1 영역의 롤각 및 제2 피사체의 제2 영역의 롤각 결정 단계에서는, 아웃라이어를 제외하고 유효한 롤각의 평균을 해당 피사체의 영역의 롤각으로 결정할 수 있다. 또한, 적어도 하나의 제어 대상 객체의 롤각 결정 단계는, 제1 피사체의 제1 영역의 롤각을 기반으로 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계; 및 제2 피사체의 제2 영역의 롤각을 기반으로 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계를 포함할 수 있다.According to one embodiment of the present disclosure, determining the position of the object to be controlled may include determining a roll angle of a first area of a first subject and a roll angle of a second area of a second subject; and determining a roll angle of at least one control target object. Here, in determining the roll angle of the first area of the first subject and the roll angle of the second area of the second subject, an average of effective roll angles excluding outliers may be determined as the roll angle of the area of the subject. The determining of the roll angle of the at least one control target object may include determining the roll angle of the at least one control target object based on the roll angle of the first region of the first subject; and determining a roll angle of at least one control target object based on a roll angle of a second region of a second subject.

본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 장치는 적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하고, 적어도 하나의 이미지 각각에서 피사체의 영역 이미지를 검출하는 이미지 수신부, 영역 이미지를 분석하여 자세 좌표 정보를 생성하고, 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하며, 매핑된 좌표 정보를 피사체를 기준으로 변환하여 제1 방향 좌표 정보를 생성하는 좌표 정보 생성부 및 방향 좌표 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 제어 대상 객체 위치 결정부를 포함한다.An apparatus for generating a map of a control target object according to an embodiment of the present disclosure includes receiving at least one image including a subject from at least one control target object and detecting an image of a region of the subject in each of the at least one image. The image receiving unit analyzes the area image to generate posture coordinate information, maps at least one control target object to the posture coordinate information to generate mapped coordinate information, and converts the mapped coordinate information based on the subject to create a first direction It includes a coordinate information generation unit that generates coordinate information and a control target object location determiner that determines the position of each of the at least one control target object based on the direction coordinate information.

본 개시의 일 실시예에 따른 제어 대상 객체의 지도를 생성하는 장치는 적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하고, 적어도 하나의 이미지 각각에서 제1 피사체의 제1 영역 이미지 및 제2 피사체의 제2 영역 이미지를 검출하는 이미지 수신부, 제1 영역 이미지 및 제2 영역 이미지를 각각 분석하여 제1 자세 좌표 정보 및 제2 자세 좌표 정보를 생성하고, 제1 자세 좌표 정보 및 제2 자세 좌표에 각각 적어도 하나의 제어 대상 객체를 매핑하여 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 생성하며, 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 각각 제1 피사체 및 제2 피사체를 기준으로 변환하여 제1 방향 좌표 정보 및 제2 방향 좌표 정보를 생성하고, 제1 방향 좌표 정보를 기초로 제1 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성하며, 제2 방향 좌표 정보를 기초로 제2 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성하는 좌표 정보 생성부 및 제1 반직선 정보 및 제2 반직선 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 제어 대상 객체 위치 결정부를 포함한다.An apparatus for generating a map of a control target object according to an embodiment of the present disclosure receives at least one image including a first subject and a second subject from at least one control target object, and obtains a first object from each of the at least one image. an image receiver configured to detect a first area image of a subject and a second area image of a second subject, analyze the first area image and the second area image, and generate first posture coordinate information and second posture coordinate information; At least one control target object is mapped to the first posture coordinate information and the second posture coordinate, respectively, to generate first mapped coordinate information and second mapped coordinate information, and the first mapped coordinate information and the second mapped coordinate information are generated. Information is converted based on the first subject and the second subject, respectively, to generate first direction coordinate information and second direction coordinate information, and at least one control target object based on the first subject based on the first direction coordinate information First half line information is generated by connecting each of them with a half line, and coordinate information is generated to generate second half line information by connecting each of at least one control target object with a half line based on the second subject based on the second direction coordinate information. and a control target object location determiner for determining a position of each of the at least one control target object based on the second linear information and the first linear information.

이 외에도, 본 개시를 구현하기 위한 다른 방법, 다른 장치 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition to this, another method for implementing the present disclosure, another device, and a non-transitory computer readable recording medium recording a computer program for executing the method are further provided.

본 개시의 일 실시예에 따르면, 제어 대상 객체로부터 수신한 피사체를 포함하는 이미지 분석하여 제어 대상 객체의 좌표 정보를 생성함으로써, 피사체를 기준으로 물리적으로 인지되는 방향 및 위치에 따른 제어 대상 객체의 지도를 생성할 수 있다.According to an embodiment of the present disclosure, by analyzing an image including a subject received from a control object and generating coordinate information of the control object, a map of the control object according to a physically recognized direction and location based on the subject can create

본 개시의 일 실시예에 따르면, 둘 이상의 피사체를 기준으로 제어 대상 객체의 좌표 정보를 생성함으로써, 제어 대상 객체의 위치를 3차원 좌표로 특정할 수 있다.According to an embodiment of the present disclosure, the location of the control object may be specified as 3D coordinates by generating coordinate information of the control object based on two or more subjects.

도 1은 본 개시의 일 실시예에 따라 제어 대상 객체 지도 기반으로 제어 대상 객체를 제어하기 위한 시스템 환경을 개략적으로 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 제어 대상 객체 지도 생성 장치의 기능적 구성을 개략적으로 도시한 기능 블록도이다.
도 3은 본 개시의 일 실시예에 따라 복수의 제어 대상 객체가 있는 소정의 공간에서 피사체가 특정 제어 대상 객체를 향하고 있는 모습을 예시적으로 나타내는 도면이다.
도 4는 본 개시의 일 실시예에 따라 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.
도 5는 본 개시의 일 실시예에 따라 방향 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따라 제어 대상 객체의 지도를 생성하는 방법을 예시적으로 보여주는 동작 흐름도이다.
도 7은 본 개시의 다른 실시예에 따라 복수의 제어 대상 객체가 있는 소정의 공간에서 제1 피사체 및 제2 피사체가 있는 모습을 예시적으로 나타내는 도면이다.
도 8은 본 개시의 다른 실시예에 따라 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.
도9는 본 개시의 다른 실시예에 따라 반직선 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.
도 10은 본 개시의 다른 실시예에 따라 제어 대상 객체 각각의 위치를 결정하는 방법을 예시적으로 나타내는 도면이다.
도 11 및 도 12는 본 개시의 다른 실시예에 따라 피사체의 영역 이미지의 롤각을 보정하는 방법을 예시적으로 나타내는 도면이다.
도 13은 본 개시의 다른 실시예에 따라 제어 대상 객체의 지도를 생성하는 방법을 예시적으로 보여주는 동작 흐름도이다.
1 is a diagram schematically illustrating a system environment for controlling a control target object based on a control target object map according to an embodiment of the present disclosure.
2 is a functional block diagram schematically illustrating a functional configuration of an apparatus for generating a control target object map according to an embodiment of the present disclosure.
3 is a diagram illustratively illustrating a state in which a subject is facing a specific control target object in a predetermined space in which a plurality of control target objects are located according to an embodiment of the present disclosure.
4 is a diagram exemplarily illustrating a method of generating posture coordinate information by analyzing a region image of a subject according to an embodiment of the present disclosure.
5 is a diagram exemplarily illustrating a method of generating direction coordinate information according to an embodiment of the present disclosure.
6 is an operational flowchart exemplarily illustrating a method of generating a map of a control target object according to an embodiment of the present disclosure.
7 is a diagram illustratively showing a state in which a first subject and a second subject are present in a predetermined space in which a plurality of control object objects are located according to another embodiment of the present disclosure.
8 is a diagram exemplarily illustrating a method of generating posture coordinate information by analyzing a region image according to another embodiment of the present disclosure.
9 is a diagram exemplarily illustrating a method of generating half-line information according to another embodiment of the present disclosure.
10 is a diagram exemplarily illustrating a method of determining a location of each control target object according to another embodiment of the present disclosure.
11 and 12 exemplarily illustrate a method of correcting a roll angle of an image of a region of a subject according to another embodiment of the present disclosure.
13 is an operational flowchart exemplarily illustrating a method of generating a map of a control target object according to another embodiment of the present disclosure.

이하, 첨부 도면을 참조하여 본 개시의 실시예에 관하여 상세히 설명한다. 이하에서는, 본 개시의 요지를 불필요하게 흐릴 우려가 있다고 판단되는 경우, 이미 공지된 기능 및 구성에 관한 구체적인 설명을 생략한다. 또한, 이하에서 설명하는 내용은 어디까지나 본 개시의 일 실시예에 관한 것일 뿐 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Hereinafter, if it is determined that there is a risk of unnecessarily obscuring the gist of the present disclosure, detailed descriptions of already known functions and configurations will be omitted. In addition, it should be understood that the contents described below relate only to one embodiment of the present disclosure, and the present disclosure is not limited thereto.

본 개시에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 개시를 한정하려는 의도에서 사용된 것이 아니다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 개시에서 사용되는 "및/또는"이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다' 또는 '가지다' 등의 용어는 본 개시 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다.Terms used in the present disclosure are used only to describe specific embodiments and are not intended to limit the present disclosure. For example, a component expressed in the singular number should be understood as a concept including a plurality of components unless the context clearly means only the singular number. It should be understood that the term "and/or" as used in this disclosure encompasses any and all possible combinations of one or more of the listed items. Terms such as 'include' or 'have' used in the present disclosure are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the present disclosure exist, and these terms Use is not intended to exclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

본 개시의 실시예에 있어서 '모듈' 또는 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 또는 '부'는, 특정한 하드웨어로 구현될 필요가 있는 '모듈' 또는 '부'를 제외하고는, 적어도 하나의 소프트웨어 모듈로 일체화되어 적어도 하나의 프로세서에 의해 구현될 수 있다.In an embodiment of the present disclosure, a 'module' or 'unit' refers to a functional part that performs at least one function or operation, and may be implemented with hardware or software or a combination of hardware and software. In addition, a plurality of 'modules' or 'units' may be integrated into at least one software module and implemented by at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware. there is.

덧붙여, 달리 정의되지 않는 한 기술적 또는 과학적인 용어를 포함하여, 본 개시에서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의된 용어들은, 관련 기술의 문맥상 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 개시에서 명백하게 달리 정의하지 않는 한 과도하게 제한 또는 확장하여 해석되지 않는다는 점을 알아야 한다.In addition, unless defined otherwise, all terms used in this disclosure, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this disclosure belongs. It should be noted that commonly used terms defined in dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted excessively limited or expanded unless clearly defined otherwise in the present disclosure. .

도 1은 본 개시의 일 실시예에 따라 제어 대상 객체 지도 기반으로 제어 대상 객체를 제어하기 위한 시스템 환경을 개략적으로 나타내는 도면이다.1 is a diagram schematically illustrating a system environment for controlling a control target object based on a control target object map according to an embodiment of the present disclosure.

도 1에 도시된 바와 같이, 본 개시의 일 실시예 따르면, 제어 대상 객체 지도 기반으로 제어 대상 객체를 제어하기 위한 시스템(100)(이하, '제어 대상 객체 제어 시스템(100)'이라 함)은 사용자 단말(110), 제어 대상 객체(120), 통신망(130) 및 제어 대상 객체의 지도 생성 장치(140)(이하, '지도 생성 장치(140)'라 함)를 포함할 수 있다.As shown in FIG. 1 , according to an embodiment of the present disclosure, a system 100 for controlling a control target object based on a control target object map (hereinafter referred to as 'control target object control system 100') It may include a user terminal 110, a control target object 120, a communication network 130, and a map generating device 140 (hereinafter referred to as 'map generating device 140') of a control target object.

본 개시의 일 실시예에 따른 사용자 단말(110)은 통신망(130)을 통해 제어 대상 객체(120) 및/또는 지도 생성 장치(140)와 통신할 수 있는 기능을 포함하는 디지털 기기로서, 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기일 수 있다. 일 실시예에서, 사용자 단말(110)은 스마트 글래스, 스마트 워치, 스마트 밴드, 스마트 링, 스마트 넥클리스, 스마트 이어셋, 스마트 이어폰, 스마트 이어링, 헤드 마운티드 디스플레이(HMD) 등과 같은 웨어러블 디바이스이거나, 스마트폰, 스마트 패드, 데스크탑 컴퓨터, 서버, 노트북 컴퓨터, 워크스테이션, 피디에이(PDA), 웹 패드, 이동 전화기, 리모트 컨트롤러 등과 같은 다소 전통적인 디바이스일 수 있다. 본 도면에서는 3개의 사용자 단말(110)이 도시되어 있으나 본 개시가 이로써 제한되는 것은 아니다.The user terminal 110 according to an embodiment of the present disclosure is a digital device having a function of communicating with the control target object 120 and/or the map generating device 140 through a communication network 130, and includes a memory unit. It may be a digital device equipped with a microprocessor and equipped with an arithmetic capability. In one embodiment, the user terminal 110 is a wearable device such as smart glasses, a smart watch, a smart band, a smart ring, a smart necklace, a smart earphone, a smart earphone, a smart earring, a head mounted display (HMD), a smart phone, It may be a more or less traditional device such as a smart pad, desktop computer, server, notebook computer, workstation, PDA, web pad, mobile phone, remote controller, and the like. In this drawing, three user terminals 110 are shown, but the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 사용자 단말(110)은 사용자의 입력을 수신하고, 이에 대응하는 제어 대상 객체(120)의 제어 화면 또는 제어 대상 객체(120)의 제어 화면의 링크를 표시하도록 구성되는 표시 수단을 구비할 수 있다. 일 실시예에서, 사용자 단말(110)은 지도 생성 장치(140)로부터 제어 대상 객체의 지도 정보를 수신할 수 있으며, 제어 대상 객체 지도에서 제어 대상 객체의 상대적인 위치를 기반으로 제어 대상 객체(120)를 탐색할 수 있다.According to an embodiment of the present disclosure, the user terminal 110 is configured to receive a user input and display a control screen of the control target object 120 or a link of the control screen of the control target object 120 corresponding thereto. A display means may be provided. In an embodiment, the user terminal 110 may receive map information of the control target object from the map generating device 140, and the control target object 120 is generated based on the relative position of the control target object in the control target object map. can be explored.

본 개시의 일 실시예에 따르면, 사용자 단말(110)에는 본 개시에 따른 기능을 지원하는 애플리케이션이 포함되어 있을 수 있다. 이와 같은 애플리케이션은 제어 대상 객체 제어 시스템(100) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다.According to an embodiment of the present disclosure, the user terminal 110 may include an application supporting functions according to the present disclosure. Such an application may be downloaded from the controlled object control system 100 or an external application distribution server (not shown).

본 개시의 일 실시예에 따른 제어 대상 객체(120)는 사용자의 조작에 의하여 제어될 수 있도록 구성되는 기기 또는 사물로서, 통신망(130) 또는 소정의 프로세서에 의하여 사용자 단말(110), 지도 생성 장치(140) 또는 외부 시스템(미도시됨)과 통신이 이루어질 수 있다. 제어 대상 객체(120)는 통신망(130)을 통하여 사용자 단말(110)로부터 전송되어 온 제어 명령을 수신할 수 있으며, 수신되는 제어 명령에 따라 자신의 모션 또는 기능이 제어되도록 구성될 수 있다. 본 개시의 일 실시예에 따른 제어 대상 객체(120)는, 예컨대 텔레비전, 에어컨, 스피커, 전등, 가습기, 서랍장, 창문, 블라인드 등과 같은 IoT(Internet of Things) 디바이스일 수 있다.The control target object 120 according to an embodiment of the present disclosure is a device or object configured to be controlled by a user's manipulation, and the user terminal 110 or a map generating device by the communication network 130 or a predetermined processor. Communication with 140 or an external system (not shown) may be made. The control target object 120 may receive a control command transmitted from the user terminal 110 through the communication network 130 and may be configured to control its own motion or function according to the received control command. The control target object 120 according to an embodiment of the present disclosure may be, for example, an Internet of Things (IoT) device such as a television, an air conditioner, a speaker, a lamp, a humidifier, a chest of drawers, a window, or blinds.

본 개시의 일 실시예에 따르면, 제어 대상 객체(120)는 이미지를 촬영하도록 구성되는 카메라 모듈(미도시됨)을 포함할 수 있다. 본 개시의 일 실시예에서, 제어 대상 객체(120)에 포함되는 카메라 모듈은 소정의 공간을 촬영할 수 있다. 여기서 소정의 공간이란 피사체를 포함하는 공간을 의미한다. 일 실시예에서, 카메라 모듈은 카메라(예를 들어, RGB카메라, IR 카메라 등의 2차원 카메라, 3차원 카메라 등), 이미지 센서 및 영상 센서 중 적어도 하나를 포함할 수 있다. 카메라 모듈을 통해 획득한 이미지는 통신망(130)을 통하여 외부(예컨대, 지도 생성 장치(140))에 전송될 수 있다.According to one embodiment of the present disclosure, the control target object 120 may include a camera module (not shown) configured to capture an image. In one embodiment of the present disclosure, a camera module included in the control target object 120 may capture a predetermined space. Here, the predetermined space means a space including a subject. In one embodiment, the camera module may include at least one of a camera (eg, a 2D camera such as an RGB camera or an IR camera, a 3D camera, etc.), an image sensor, and an image sensor. Images obtained through the camera module may be transmitted to the outside (eg, the map generating device 140) through the communication network 130.

본 개시의 일 실시예에 따른 통신망(130)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(130)은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(130)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.The communication network 130 according to an embodiment of the present disclosure may be configured regardless of communication aspects such as wired communication or wireless communication, and may include a local area network (LAN), a metropolitan area network (MAN), It may be configured with various communication networks such as a wide area network (WAN). Preferably, the communication network 130 referred to in this specification may be the well-known Internet or the World Wide Web (WWW). However, the communication network 130 may include at least a part of a known wired/wireless data communication network, a known telephone network, or a known wire/wireless television communication network without being limited thereto.

예를 들면, 통신망(130)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE, Long Term Evolution) 통신, 5G 통신, 블루투스 통신(저전력 블루투스(BLE; Bluetooth Low Energy) 통신 포함), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다. 다른 예를 들면, 통신망(130)은 광 통신망으로서, 라이파이(LiFi, Light Fidelity) 등과 같은 종래의 통신 방법을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.For example, the communication network 130 is a wireless data communication network, WiFi communication, WiFi-Direct communication, Long Term Evolution (LTE) communication, 5G communication, Bluetooth communication (low power Bluetooth (BLE) ; Bluetooth Low Energy) communication), infrared communication, ultrasonic communication, and the like may be implemented in at least a part thereof. For another example, the communication network 130 is an optical communication network, and may implement a conventional communication method such as LiFi (Light Fidelity) in at least a part thereof.

본 개시의 일 실시예에 따른 지도 생성 장치(140)는 제어 대상 객체(120)의 지도를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 제어 대상 객체(120)로부터 수신한 피사체를 포함하는 이미지를 분석하여 자세 좌표 정보를 생성하고, 해당 자세 좌표 정보에 제어 대상 객체(120)를 매핑하여 제어 대상 객체(120)의 자세 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 제어 대상 객체(120)가 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성할 수 있다.The map generating device 140 according to an embodiment of the present disclosure may generate a map of the control target object 120 . In one embodiment, the map generating device 140 analyzes an image including a subject received from the control target object 120 to generate posture coordinate information, and maps the control target object 120 to the corresponding posture coordinate information. Posture coordinate information of the object to be controlled 120 may be generated. In an embodiment, the map generating device 140 may generate direction coordinate information by converting coordinate information to which the control target object 120 is mapped based on the subject.

본 개시의 일 실시예에 따르면, 지도 생성 장치(140)는 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 디바이스로서, 서버 시스템일 수 있으며, 통신망(130)을 통해 사용자 단말(110) 및 제어 대상 객체(120)와 통신을 수행할 수 있다.According to an embodiment of the present disclosure, the map generating device 140 is a digital device having a memory unit and a microprocessor equipped with an arithmetic capability, and may be a server system, and may be a user terminal 110 through a communication network 130 ) and the control target object 120 and communication may be performed.

도 2는 본 개시의 일 실시예에 따른 제어 대상 객체 지도 생성 장치의 기능적 구성을 개략적으로 도시한 기능 블록도이다.2 is a functional block diagram schematically illustrating a functional configuration of an apparatus for generating a control target object map according to an embodiment of the present disclosure.

도 2를 참조하면, 본 개시의 일 실시예에 따른 지도 생성 장치(140)는 이미지 수신부(202), 좌표 정보 생성부(204), 제어 대상 객체 위치 결정부(206), 통신부(208) 및 저장부(210)를 포함할 수 있다. 도 2에 도시된 구성요소들은 지도 생성 장치(140)의 모든 기능을 반영한 것이 아니고, 필수적인 것도 아니어서, 지도 생성 장치(140)는 도시된 구성요소들 보다 많은 구성요소를 포함하거나 그보다 적은 구성요소를 포함할 수 있다.Referring to FIG. 2 , a map generating device 140 according to an embodiment of the present disclosure includes an image receiving unit 202, a coordinate information generating unit 204, a control target object location determining unit 206, a communication unit 208, and A storage unit 210 may be included. The components shown in FIG. 2 do not reflect all the functions of the map generating device 140 and are not essential, so the map generating device 140 includes more or fewer components than the illustrated components. can include

본 개시의 일 실시예에 따르면, 이미지 수신부(202), 좌표 정보 생성부(204), 제어 대상 객체 위치 결정부(206), 통신부(208) 및 저장부(210)는 그 중 적어도 일부가 외부의 시스템(미도시)과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 지도 생성 장치(140)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 지도 생성 장치(140)와 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 개시에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present disclosure, at least a part of the image receiving unit 202, the coordinate information generating unit 204, the control target object location determination unit 206, the communication unit 208, and the storage unit 210 are external. It may be a program module that communicates with a system (not shown) of. These program modules may be included in the map generating device 140 in the form of an operating system, application program modules, or other program modules, and may be physically stored in various known storage devices. Also, these program modules may be stored in a remote storage device capable of communicating with the map generating device 140 . Meanwhile, these program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform specific tasks or execute specific abstract data types according to the present disclosure.

한편, 지도 생성 장치(140)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 지도 생성 장치(140)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 외부 시스템(미도시) 내에서 실현되거나 외부 시스템 내에 포함될 수 있는 것으로 이해되어야 한다.Meanwhile, although the map generating device 140 has been described as above, this description is exemplary, and at least some of the components or functions of the map generating device 140 are realized in an external system (not shown) as needed, or It should be understood that it can be included within an external system.

본 개시의 일 실시예에 따르면, 이미지 수신부(202)는 적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하는 기능을 수행할 수 있다. 여기서 피사체는 적어도 하나의 제어 대상 객체의 위치를 결정하기 위한 기준이 되는 객체로서, 예컨대, 사용자와 같은 사람이거나, 디스플레이, 의자 등과 같은 일반적인 기기 또는 사물일 수 있다. 일 실시예에서, 피사체는 하나 또는 둘 이상일 수 있다.According to an embodiment of the present disclosure, the image receiving unit 202 may perform a function of receiving at least one image including a subject from at least one control target object. Here, the subject is a reference object for determining the location of at least one control target object, and may be, for example, a person such as a user, or a general device or object such as a display or a chair. In one embodiment, the subject may be one or more than two.

도 3은 본 개시의 일 실시예에 따라 복수의 제어 대상 객체가 있는 소정의 공간에서 피사체가 특정 제어 대상 객체를 향하고 있는 모습을 예시적으로 나타내는 도면이다.3 is a diagram illustratively illustrating a state in which a subject is facing a specific control target object in a predetermined space in which a plurality of control target objects are located according to an embodiment of the present disclosure.

도 3에 도시된 바와 같이, 소정의 공간에는 제어 대상 객체로서 거울(ⓐ), 스피커(ⓑ), 블라인드(ⓒ), 가습기(ⓓ), 텔레비전(ⓔ), 조명(ⓕ), 에어컨(ⓖ) 및 스탠드(ⓗ)가 서로 다른 위치에 배치되어 있다. 도 3에서, 피사체(310)는 사용자이고, 사용자(310)는 복수의 제어 대상 객체 중 특정 제어 대상 객체(조명(ⓕ))를 바라보고 있다.As shown in FIG. 3, a mirror (ⓐ), a speaker (ⓑ), a blind (ⓒ), a humidifier (ⓓ), a television (ⓔ), a lighting (ⓕ), and an air conditioner (ⓖ) are used as objects to be controlled in a predetermined space. and stands ⓗ are disposed in different positions. In FIG. 3 , the subject 310 is a user, and the user 310 is looking at a specific control target object (light ⓕ) among a plurality of control target objects.

도 2와 도 3을 함께 참조하면, 이미지 수신부(202)는, 복수의 제어 대상 객체(ⓐ 내지 ⓗ)로부터 피사체(310)를 포함하는 복수의 이미지를 수신할 수 있다. 여기서, 복수의 이미지는 복수의 제어 대상 객체(120)의 각각의 카메라 모듈에서 촬영된 이미지일 수 있다.Referring to FIGS. 2 and 3 together, the image receiving unit 202 may receive a plurality of images including a subject 310 from a plurality of control target objects ⓐ to ⓗ. Here, the plurality of images may be images captured by each camera module of the plurality of control target objects 120 .

본 개시의 일 실시예에 따르면, 이미지 수신부(202)는, 수신한 복수의 이미지 각각에서 피사체의 영역 이미지를 검출하는 기능을 수행할 수 있다. 여기서, 피사체의 영역 이미지는 피사체의 자세를 추정하기 위한 기준이 되는 영역이다. 예를 들면, 피사체가 사용자인 경우 피사체의 영역 이미지는 사용자의 얼굴 영역 이미지일 수 있다. 다른 예를 들면, 피사체가 디스플레이인 경우 피사체의 영역 이미지는 화면 영역 이미지일 수 있다. 또 다른 예를 들면, 피사체가 의자인 경우 피사체의 영역 이미지는 전면 등받이 영역 이미지일 수 있다.According to an embodiment of the present disclosure, the image receiving unit 202 may perform a function of detecting a region image of a subject from each of a plurality of received images. Here, the area image of the subject is a reference area for estimating the posture of the subject. For example, if the subject is a user, the subject's area image may be the user's face area image. For another example, when the subject is a display, the area image of the subject may be a screen area image. For another example, when the subject is a chair, the area image of the subject may be a front backrest area image.

본 개시의 일 실시예에 따르면, 좌표 정보 생성부(204)는, 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 기능을 수행할 수 있다.According to an embodiment of the present disclosure, the coordinate information generating unit 204 may perform a function of generating posture coordinate information by analyzing an area image of a subject.

도 4는 본 개시의 일 실시예에 따라 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.4 is a diagram exemplarily illustrating a method of generating posture coordinate information by analyzing a region image of a subject according to an embodiment of the present disclosure.

도 4에 도시된 바와 같이, 좌표 정보 생성부(204)는 피사체의 영역 이미지(예컨대, 사용자의 얼굴 영역 이미지)의 회전 방향 및 회전 각도를 검출하여 영역 이미지의 자세 좌표 정보를 생성할 수 있다. 구체적으로, 좌표 정보 생성부(204)는 각각의 얼굴 영역 이미지에서 얼굴을 들거나 숙이는 정도에 따른 각도(피치각(pitch angle)) 및 얼굴을 좌우로 돌리는 정도에 따른 각도(요각(yaw angle))를 검출할 수 있으며, 각각의 얼굴 영역 이미지에서 검출된 피치각 및 요각을 기초로 각각의 얼굴 영역 이미지를 요(Yaw)-피치(Pitch) 좌표계(자세 좌표계)에 배치하여 얼굴 영역 이미지의 자세 좌표 정보를 생성할 수 있다. 일 실시예에서 자세 좌표계는 요 좌표축과, 요 좌표축에 직교하는 피치 좌표축으로 구성될 수 있으며, 영역 이미지 중에서 어느 한쪽으로 편향되지 않고, 특정 제어 대상 객체(120)를 정면으로 향하는 영역 이미지가 원점(0, 0)에 배치되도록 구성될 수 있다.As shown in FIG. 4 , the coordinate information generation unit 204 may detect a rotation direction and rotation angle of an area image of a subject (eg, a face area image of a user) and generate posture coordinate information of the area image. Specifically, the coordinate information generation unit 204 determines an angle (pitch angle) according to the degree of lifting or bending the face and an angle (yaw angle) according to the degree of turning the face left and right in each face region image. can be detected, and based on the pitch and yaw angles detected in each face region image, each face region image is placed in a yaw-pitch coordinate system (posture coordinate system) to position the face region image. information can be generated. In one embodiment, the attitude coordinate system may be composed of a yaw coordinate axis and a pitch coordinate axis orthogonal to the yaw coordinate axis, and a region image facing a specific control target object 120 in front without being biased to either side among the region images is the origin ( 0, 0).

본 개시의 일 실시예에 따르면, 좌표 정보 생성부(204)는, 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하는 기능을 수행할 수 있다. 일 실시예에서, 좌표 정보 생성부(204)는 얼굴 영역 이미지의 자세 좌표 정보에 적어도 하나의 제어 대상 객체(120)를 매핑하여 매핑된 좌표 정보를 생성할 수 있다. 구체적으로, 도 4에 도시된 바와 같이, 각각의 영역 이미지(예컨대, 얼굴 영역 이미지)를 해당 영역 이미지를 촬영한 제어 대상 객체와 매칭시킬 수 있으며, 매칭되는 제어 대상 객체를 요-피치 좌표계(자세 좌표계)에 매핑하여 매핑된 좌표 정보를 생성할 수 있다.According to an embodiment of the present disclosure, the coordinate information generating unit 204 may perform a function of generating mapped coordinate information by mapping at least one control target object to posture coordinate information. In an embodiment, the coordinate information generating unit 204 may generate mapped coordinate information by mapping at least one control target object 120 to the posture coordinate information of the face region image. Specifically, as shown in FIG. 4 , each region image (eg, face region image) may be matched with a control target object obtained by capturing a corresponding region image, and the matched control target object may be matched in a yaw-pitch coordinate system (posture). coordinate system) to generate mapped coordinate information.

본 개시의 일 실시예에 따르면, 좌표 정보 생성부(204)는, 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 기능을 수행할 수 있다.According to an embodiment of the present disclosure, the coordinate information generating unit 204 may perform a function of generating direction coordinate information by converting mapped coordinate information based on a subject.

도 5는 본 개시의 일 실시예에 따라 방향 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.5 is a diagram exemplarily illustrating a method of generating direction coordinate information according to an embodiment of the present disclosure.

도 3 및 도 5를 참조하면, 좌표 정보 생성부(204)는 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 방향 좌표 정보를 생성할 수 있다. 구체적으로, 요-피치 좌표계(자세 좌표계)에서 피치 다운(Pitch down)은 업(Up)으로, 피치 업(Pitch up)은 다운(Down)으로, 요 레프트(Yaw left)는 레프트(Left)로, 요 라이트(Yaw right)는 라이트(Right)로 변환하여 상하좌우의 방향 좌표계를 생성할 수 있으며, 방향 좌표계에 각각의 제어 대상 객체를 배치하여 방향 좌표 정보를 생성할 수 있다.Referring to FIGS. 3 and 5 , the coordinate information generator 204 may generate direction coordinate information by converting posture coordinate information according to yaw and pitch angles into direction coordinate information according to up, down, left and right directions. Specifically, in the yaw-pitch coordinate system (attitude coordinate system), pitch down is up, pitch up is down, and yaw left is left. , A yaw right can be converted into a right to create an up, down, left, and right directional coordinate system, and directional coordinate information can be created by arranging each control target object in the directional coordinate system.

본 개시의 일 실시예에서, 원점에 위치한 제어 대상 객체(조명(ⓕ))를 기준으로, 도 5에 도시된 바와 같이, 우측에 에어컨(ⓖ), 좌측 상단에는 블라인드(ⓒ), 좌측 하단에는 텔레비전(ⓔ)이 위치하는 2차원의 제어 대상 객체의 지도를 생성할 수 있다.In one embodiment of the present disclosure, as shown in FIG. 5, based on the control target object (lighting (ⓕ)) located at the origin, the air conditioner (ⓖ) is on the right, the blind (ⓒ) is on the upper left, and the blind (ⓒ) is on the lower left. A map of a 2-dimensional object to be controlled where the television (ⓔ) is located may be created.

본 개시의 일 실시예에 따르면, 피사체를 기준으로 제어 대상 객체의 상대적인 위치가 결정되기 때문에 피사체, 사용자가 실제로 인지하는 물리적인 위치에 따라서 제어 대상 객체를 탐색할 수 있다. 일 실시예에서, 사용자 단말(110)에 2차원의 제어 대상 객체의 지도가 제공되면, 사용자는 사용자 단말(110)에 방향 정보를 포함하는 사용자 입력을 수행함으로써 제어 대상 객체를 탐색할 수 있다. 여기서, 방향 정보를 포함하는 사용자 입력은 예컨대, 방향 드래그(drag), 방향 이동 아이콘의 클릭, 소정 수의 방향 스와이프(swipe), 사용자 단말(110)에 대한 물리적인 이동 등일 수 있다.According to an embodiment of the present disclosure, since the relative position of the object to be controlled is determined with respect to the subject, the subject to be controlled may be searched according to the physical position actually recognized by the user. In an embodiment, when a 2D map of a control target object is provided to the user terminal 110, the user may search for the control target object by performing a user input including direction information to the user terminal 110. Here, the user input including the direction information may be, for example, dragging in a direction, clicking on a direction movement icon, swiping in a predetermined number of directions, or physically moving the user terminal 110 .

이하에서, 도 5에 도시된 제어 대상 객체의 지도를 참조하여 제어 대상 객체를 탐색하는 방법을 다양한 예시를 들어 설명한다. 예를 들어, 사용자 단말(110)(예컨대, 스마트 워치)에 조명(ⓕ)의 제어 화면이 표시된 상태에서 사용자가 우측으로 드래그하면, 제어 대상 객체의 지도에서 조명(ⓕ)의 우측에 위치하면서 조명(ⓕ)에 가장 인접한 제어 대상 객체인 에어컨(ⓖ)의 제어 화면이 표시될 수 있다. 다른 예를 들면, 사용자 단말(110)(예컨대, 스마트폰)에 가습기(ⓓ)의 제어 화면이 표시된 상태에서 사용자가 위로 이동하는 방향 아이콘을 클릭하면, 제어 대상 객체의 지도에서 가습기(ⓓ)로부터 위쪽 방향에 위치하면서 가습기(ⓓ)에 가장 인접한 제어 대상 객체인 블라인드(ⓒ)의 제어 화면이 표시될 수 있다. 또 다른 예를 들면, 사용자 단말(110)(예컨대, 태블릿)에 스피커(ⓑ)의 제어 화면 링크가 표시된 상태에서, 사용자가 태블릿을 우측 상단으로 물리적으로 이동시키면, 제어 대상 객체의 지도에서 스피커(ⓑ)의 우측 상단에 위치하면서 스피커(ⓑ)에 가장 인접한 제어 대상 객체인 블라인드(ⓒ)의 제어 화면 링크가 표시될 수 있다.Hereinafter, a method of searching for a control target object will be described with reference to the map of the control target object shown in FIG. 5 by way of various examples. For example, when the user drags to the right while the control screen of the light ⓕ is displayed on the user terminal 110 (eg, smart watch), the light is positioned to the right of the light ⓕ on the map of the object to be controlled. A control screen of an air conditioner (ⓖ), which is a control target object closest to (ⓕ), may be displayed. For another example, when the user clicks a direction icon moving upward while the control screen of the humidifier (ⓓ) is displayed on the user terminal 110 (eg, a smartphone), from the humidifier (ⓓ) on the map of the control target object. A control screen of a blind (ⓒ), which is a control target object located in an upward direction and closest to the humidifier (ⓓ), may be displayed. For another example, when the user physically moves the tablet to the upper right corner while the link of the control screen of the speaker ⓑ is displayed on the user terminal 110 (eg, the tablet), the speaker (ⓑ) is displayed on the map of the control target object. A link to the control screen of a blind (ⓒ), which is a control target object located at the upper right of ⓑ) and closest to the speaker (ⓑ), may be displayed.

다시 도 2를 참조하면, 본 개시의 일 실시예에 따른 제어 대상 객체 위치 결정부(206)는 좌표 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 기능을 수행할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 각각의 제어 대상 객체의 방향 좌표 정보를 기초로 제어 대상 객체의 상대적인 위치를 결정할 수 있으며, 제어 대상 객체의 상대적인 위치에 따른 지도를 생성할 수 있다.Referring back to FIG. 2 , the control target object position determiner 206 according to an embodiment of the present disclosure may perform a function of determining the position of each of the at least one control target object based on coordinate information. In an embodiment, the control target object position determiner 206 may determine the relative position of the control target object based on the direction coordinate information of each control target object, and generate a map according to the relative position of the control target object. can

본 개시의 일 실시예에 따르면, 통신부(208)는 이미지 수신부(202), 좌표 정보 생성부(204), 제어 대상 객체 위치 결정부(206) 및 저장부(210)로부터의/로의 데이터 송수신이 가능하도록 기능할 수 있으며, 또한 지도 생성 장치(140)가 외부 통신망과 통신할 수 있도록 기능할 수 있다.According to an embodiment of the present disclosure, the communication unit 208 transmits/receives data from/to the image receiver 202, the coordinate information generator 204, the control target object location determiner 206, and the storage unit 210. It can also function to enable the map generating device 140 to communicate with an external communication network.

본 개시의 일 실시예에 따르면, 저장부(210)는 지도 생성 장치(140)를 운영하는 데에 필요한 데이터를 저장하는 기능을 수행할 수 있다. 저장부(210)에 저장되는 데이터로는, 예를 들어 이미지 수신부(202)에서 수신한 피사체를 포함하는 이미지, 이미지 각각에서 검출된 피사체의 영역 이미지에 관한 정보, 좌표 정보 생성부(204)에서 생성되는 자세 좌표 정보, 방향 좌표 정보, 반직선 정보, 제어 대상 객체 위치 결정부(206)에서 결정된 제어 대상 객체 각각의 위치에 관한 정보 등이 있을 수 있다.According to one embodiment of the present disclosure, the storage unit 210 may perform a function of storing data required to operate the map generating device 140 . The data stored in the storage unit 210 includes, for example, an image including the subject received by the image receiving unit 202, information about an area image of the subject detected in each image, and coordinate information generating unit 204. There may be generated posture coordinate information, direction coordinate information, radial line information, information about the position of each control target object determined by the control target object position determining unit 206 , and the like.

도 6은 본 개시의 일 실시예에 따라 제어 대상 객체의 지도를 생성하는 방법을 예시적으로 보여주는 동작 흐름도이다.6 is an operational flowchart exemplarily illustrating a method of generating a map of a control target object according to an embodiment of the present disclosure.

먼저, 제어 대상 객체의 지도를 생성하는 방법은 지도 생성 장치(140)가 피사체를 포함하는 이미지를 수신하는 단계(S602)로부터 시작된다. 일 실시예에서, 지도 생성 장치(140)는 제어 대상 객체(120)의 카메라 모듈에서 촬영된 이미지를 수신할 수 있다.First, a method of generating a map of a control target object starts with the map generating device 140 receiving an image including a subject (S602). In one embodiment, the map generating device 140 may receive an image captured by a camera module of the control target object 120 .

다음으로, 단계(S604)에서 지도 생성 장치(140)는 단계(S602)에서 수신한 복수의 이미지 각각에서 피사체의 영역 이미지를 검출할 수 있다. 여기서, 피사체는 사용자일 수 있으며, 피사체의 영역 이미지는 사용자의 얼굴 영역 이미지일 수 있다.Next, in step S604, the map generating device 140 may detect an area image of the subject from each of the plurality of images received in step S602. Here, the subject may be the user, and the subject's area image may be the user's face area image.

이어서, 단계(S606)에서, 지도 생성 장치(140)는 단계(S604)에서 검출한 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성할 수 있다. 일 실시예에서, 단계(S606)는 피사체의 영역 이미지의 요각 및 피치각을 검출하는 방식으로 수행될 수 있다.Next, in step S606, the map generating device 140 may generate attitude coordinate information by analyzing the image of the area of the subject detected in step S604. In one embodiment, step S606 may be performed in a manner of detecting yaw angles and pitch angles of the area image of the subject.

다음으로, 단계(S608)에서, 지도 생성 장치(140)는 단계(S606)에서 생성하는 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 각각의 영역 이미지를 해당 영역 이미지를 촬영한 제어 대상 객체와 매칭시킬 수 있으며, 각 영역 이미지에 매칭되는 제어 대상 객체를 자세 좌표 정보에 따라 요-피치 좌표계(자세 좌표계)에 매핑하는 방식으로 매핑된 좌표 정보를 생성할 수 있다.Next, in step S608, the map generating device 140 may generate mapped coordinate information by mapping at least one control target object to the posture coordinate information generated in step S606. In an embodiment, the map generating device 140 may match each area image with a control target object that has captured the corresponding area image, and yaw-pitch the control target object matched to each area image according to the posture coordinate information. Mapped coordinate information can be created by mapping to a coordinate system (attitude coordinate system).

단계(S610)에서, 지도 생성 장치(140)는 단계(S608)에서 생성하는 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 방향 좌표 정보를 생성할 수 있다.In step S610, the map generating device 140 may generate direction coordinate information by converting the mapped coordinate information generated in step S608 based on the subject. In an embodiment, the map generating device 140 may generate direction coordinate information by converting posture coordinate information according to yaw and pitch angles into direction coordinate information according to up, down, left and right directions.

추가적인 단계(미도시)에서 지도 생성 장치(140)는 방향 좌표 정보를 기초로 제어 대상 객체의 상대적인 위치를 결정하고, 제어 대상 객체의 상대적인 위치에 따른 지도를 생성할 수 있다.In an additional step (not shown), the map generating device 140 may determine the relative position of the control target object based on the direction coordinate information and generate a map according to the relative position of the control target object.

한편, 앞선 실시예에서는 제어 대상 객체의 상대적인 위치에 따른 2차원의 제어 대상 객체 지도를 생성하는 방법을 설명하였으나, 제어 대상 객체의 위치를 3차원 좌표계에 특정하여 3차원의 제어 대상 객체 지도를 생성하는 것도 가능하다. 이하에서는, 도면을 참조하여 본 개시의 다른 실시예에 따라 3차원의 제어 대상 객체 지도를 생성하는 방법을 상세히 설명한다.Meanwhile, in the previous embodiment, a method for generating a 2D control target object map according to the relative position of the control target object has been described, but a 3D control target object map is generated by specifying the location of the control target object in a 3D coordinate system. It is also possible to do Hereinafter, a method of generating a 3D control target object map according to another embodiment of the present disclosure will be described in detail with reference to the drawings.

본 개시의 다른 실시예에 따르면, 이미지 수신부(202)는 적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하는 기능을 수행할 수 있다. 여기서, 제1 피사체 및 제2 피사체는 서로 다른 위치에 있는 서로 다른 객체 또는 다른 시각에 서로 다른 위치에 있는 동일 객체일 수 있다.According to another embodiment of the present disclosure, the image receiving unit 202 may perform a function of receiving at least one image including a first subject and a second subject from at least one control target object. Here, the first subject and the second subject may be different objects at different locations or the same object at different locations at different times.

도 7은 본 개시의 다른 실시예에 따라 복수의 제어 대상 객체가 있는 소정의 공간에서 제1 피사체 및 제2 피사체가 있는 모습을 예시적으로 나타내는 도면이다.7 is a diagram illustratively showing a state in which a first subject and a second subject are present in a predetermined space in which a plurality of control object objects are located according to another embodiment of the present disclosure.

도 7에 도시된 바와 같이, 소정의 공간에는 제어 대상 객체로서 거울(ⓐ), 스피커(ⓑ), 블라인드(ⓒ), 가습기(ⓓ), 텔레비전(ⓔ), 조명(ⓕ), 에어컨(ⓖ) 및 스탠드(ⓗ)가 서로 다른 위치에 배치되어 있다. 도 7에서, 제1 피사체(710)는 사용자로서 조명(ⓕ)을 향해 있고, 제2 피사체(720)는 디스플레이로 블라인드(ⓒ)를 향해 있다. 일 실시예에서, 이미지 수신부(202)는 복수의 제어 대상 객체(ⓐ 내지 ⓗ)로부터 제1 피사체(710) 및 제2 피사체(720)를 포함하는 이미지를 수신할 수 있다.As shown in FIG. 7, a mirror (ⓐ), a speaker (ⓑ), a blind (ⓒ), a humidifier (ⓓ), a television (ⓔ), a lighting (ⓕ), and an air conditioner (ⓖ) are used as objects to be controlled in a predetermined space. and stands ⓗ are disposed in different positions. In FIG. 7 , a first subject 710 faces the light ⓕ as a user, and a second subject 720 faces the blind ⓒ as a display. In an embodiment, the image receiving unit 202 may receive images including the first subject 710 and the second subject 720 from the plurality of control target objects ⓐ to ⓗ.

본 개시의 다른 실시예에 따르면, 이미지 수신부(202)는 수신한 이미지 각각에서 각각의 피사체의 영역 이미지를 검출하는 기능을 수행할 수 있다. 일 실시예에서, 이미지 수신부(202)는 제1 피사체의 제1 영역 이미지 및 제2 피사체의 제2 영역 이미지를 검출할 수 있다. 도 7에서, 제1 피사체(710)의 제1 영역 이미지는 사용자의 얼굴 영역 이미지일 수 있으며, 제2 피사체(720)의 제2 영역 이미지는 디스플레이의 화면 영역 이미지일 수 있다.According to another embodiment of the present disclosure, the image receiver 202 may perform a function of detecting an area image of each subject in each received image. In an embodiment, the image receiving unit 202 may detect an image of a first area of a first subject and an image of a second area of a second subject. In FIG. 7 , the first area image of the first subject 710 may be the user's face area image, and the second area image of the second subject 720 may be the screen area image of the display.

본 개시의 다른 실시예에 따르면, 좌표 정보 생성부(204)는 피사체의 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 기능을 수행할 수 있다. 일 실시예에서, 좌표 정보 생성부(204)는 제1 피사체의 제1 영역 이미지를 분석하여 제1 자세 좌표 정보를 생성할 수 있다. 또한, 일 실시예에서, 좌표 정보 생성부(204)는 제2 피사체의 제2 영역 이미지를 분석하여 제2 자세 좌표 정보를 생성할 수 있다.According to another embodiment of the present disclosure, the coordinate information generation unit 204 may perform a function of generating posture coordinate information by analyzing an area image of a subject. In an embodiment, the coordinate information generating unit 204 may generate first posture coordinate information by analyzing the first region image of the first subject. Also, in an embodiment, the coordinate information generating unit 204 may generate second posture coordinate information by analyzing the second region image of the second subject.

도 8은 본 개시의 다른 실시예에 따라 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.8 is a diagram exemplarily illustrating a method of generating posture coordinate information by analyzing a region image according to another embodiment of the present disclosure.

도 8에 도시된 바와 같이, 좌표 정보 생성부(204)는 피사체의 영역 이미지의 회전 방향, 회전 각도를 검출할 수 있으며, 이를 기초로 자세 좌표 정보를 생성할 수 있다. 구체적으로, 도 8의 (a)에 도시된 바와 같이, 각각의 얼굴 영역 이미지에서 피치각 및 요각을 검출할 수 있으며, 검출된 피치각 및 요각을 기초로 각각의 얼굴 영역 이미지를 피치각 및 요각에 따른 자세 좌표계에 배치하여 얼굴 영역 이미지의 자세 좌표 정보를 생성할 수 있다. 또한, 도 8의 (b)에 도시된 바와 같이, 디스플레이의 화면 영역 이미지에서 피치각 및 요각을 검출할 수 있으며, 검출된 피치각 및 요각을 기초로 각각의 화면 영역 이미지를 피치각 및 요각에 따른 자세 좌표계에 배치하여 자세 좌표 정보를 생성할 수 있다. 일 실시예에서, 각각의 영역 이미지 중에서 어느 한쪽으로 편향되지 않은, 정면을 향하는 영역 이미지가 자세 좌표계의 원점(0,0)에 배치되도록 구성될 수 있다.As shown in FIG. 8 , the coordinate information generation unit 204 may detect a rotation direction and a rotation angle of an area image of a subject, and may generate posture coordinate information based on the rotation direction and rotation angle. Specifically, as shown in (a) of FIG. 8 , a pitch angle and a yaw angle may be detected from each face region image, and each face region image may be determined based on the detected pitch angle and yaw angle. Posture coordinate information of the face region image can be created by placing it in the posture coordinate system according to . In addition, as shown in (b) of FIG. 8 , the pitch angle and the yaw angle may be detected from the screen area image of the display, and each screen area image is converted to the pitch angle and the yaw angle based on the detected pitch angle and yaw angle. Posture coordinate information can be created by arranging the posture coordinate system according to the posture coordinate system. In one embodiment, a front-facing region image that is not biased to any one side among each region image may be configured to be disposed at the origin (0,0) of the posture coordinate system.

본 개시의 다른 실시예에 따르면, 좌표 정보 생성부(204)는 제1 영역 이미지의 제1 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 각각 매핑하여 제1 매핑된 좌표 정보를 생성할 수 있으며, 제2 영역 이미지의 제2 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 각각 매핑하여 제2 매핑된 좌표 정보를 생성할 수 있다. 도 8의 (a)에 도시된 바와 같이, 얼굴 영역 이미지의 자세 좌표계에 해당 얼굴 영역 이미지와 매칭되는 제어 대상 객체(예컨대, 해당 얼굴 영역 이미지를 촬영한 제어 대상 객체)를 매핑할 수 있으며, 도 8의 (b)에 도시된 바와 같이, 화면 영역 이미지의 자세 좌표계에 해당 화면 영역 이미지와 매칭되는 제어 대상 객체(예컨대, 해당 화면 영역 이미지를 촬영한 제어 대상 객체)를 매핑할 수 있다.According to another embodiment of the present disclosure, the coordinate information generation unit 204 may generate first mapped coordinate information by mapping at least one control target object to the first posture coordinate information of the first region image, respectively; The second mapped coordinate information may be generated by mapping at least one control target object to the second posture coordinate information of the second region image. As shown in (a) of FIG. 8 , a control target object matching the face region image (eg, a control target object that captures the corresponding face region image) may be mapped to the posture coordinate system of the face region image. As shown in (b) of 8, a control target object matching the screen region image (eg, a control target object that captures the screen region image) may be mapped to the posture coordinate system of the screen region image.

본 개시의 다른 실시예에 따르면, 좌표 정보 생성부(204)는 제1 매핑된 좌표 정보를 제1 피사체를 기준으로 변환하여 제1 방향 좌표 정보를 생성할 수 있으며, 제2 매핑된 좌표 정보를 제2 피사체를 기준으로 변환하여 제2 방향 좌표 정보를 생성할 수 있다. 일 실시예에서, 좌표 정보 생성부(204)는 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 방향 좌표 정보를 생성할 수 있다.According to another embodiment of the present disclosure, the coordinate information generation unit 204 may generate first direction coordinate information by converting the first mapped coordinate information based on the first subject, and may generate the second mapped coordinate information. The second direction coordinate information may be generated by transforming the second subject based on the reference. In an embodiment, the coordinate information generation unit 204 may generate direction coordinate information by converting posture coordinate information according to yaw and pitch angles into direction coordinate information according to up, down, left and right directions.

본 개시의 다른 실시예에 따르면, 좌표 정보 생성부(204)는 방향 좌표 정보를 기초로 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 반직선 정보를 생성하는 기능을 수행할 수 있다.According to another embodiment of the present disclosure, the coordinate information generation unit 204 may perform a function of generating half-line information by connecting each of at least one control target object with a half-line based on the subject based on the direction coordinate information. .

도 9는 본 개시의 다른 실시예에 따라 반직선 정보를 생성하는 방법을 예시적으로 나타내는 도면이다.9 is a diagram exemplarily illustrating a method of generating half-line information according to another embodiment of the present disclosure.

도 9의 (a)에 도시된 바와 같이, 좌표 정보 생성부(204)는 제1 방향 좌표 정보를 기초로 기준 공간 상(3차원 좌표계)에서 제1 피사체(910)를 기준으로 복수의 제어 대상 객체(ⓐ 내지 ⓗ) 각각을 반직선으로 연결하여 제1 반직선 정보를 생성할 수 있다. 또한, 좌표 정보 생성부(204)는, 도 9의 (b)에 도시된 바와 같이, 제2 방향 좌표 정보를 기초로 기준 공간 상에서 제2 피사체(920)를 기준으로 복수의 제어 대상 객체(ⓐ 내지 ⓗ) 각각을 반직선으로 연결하여 제2 반직선 정보를 생성할 수 있다.As shown in (a) of FIG. 9 , the coordinate information generation unit 204 controls a plurality of control targets based on the first subject 910 in a reference space (3-dimensional coordinate system) based on the first direction coordinate information. First ray information may be generated by connecting each of the objects ⓐ to ⓗ with a ray. In addition, as shown in (b) of FIG. 9 , the coordinate information generator 204 includes a plurality of control target objects (ⓐ) based on the second subject 920 in the reference space based on the second direction coordinate information. to ⓗ) may be connected with a half line to generate second half line information.

본 개시의 다른 실시예에 따르면, 제어 대상 객체 위치 결정부(206)는 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 기능을 수행할 수 있다.According to another embodiment of the present disclosure, the control target object position determination unit 206 may perform a function of determining the position of each of at least one control target object.

도 10은 본 개시의 다른 실시예에 따라 제어 대상 객체 각각의 위치를 결정하는 방법을 예시적으로 나타내는 도면이다.10 is a diagram exemplarily illustrating a method of determining a location of each control target object according to another embodiment of the present disclosure.

먼저, 도 10의 (a)에 도시된 바와 같이, 기준 공간 상(3차원 좌표계 상)에서 각 피사체와 동일 제어 대상 객체와 연결되는 반직선 사이의 위치 관계를 참조하여, 각 피사체의 위치를 특정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 제1 피사체(1010)와 각각의 제어 대상 객체(ⓐ 내지 ⓗ)를 연결하는 반직선과 제2 피사체(1020)와 각각의 제어 대상 객체(ⓐ 내지 ⓗ)를 연결하는 반직선 사이의 위치 관계를 조정하여 각 피사체의 위치를 특정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 기준 공간 상에서 동일 제어 대상 객체와 연결되는 반직선이 교차하거나, 동일 제어 대상 객체와 연결되는 반직선 사이의 거리가 가장 짧아지도록 동일 제어 대상 객체와 연결되는 반직선 사이의 위치 관계를 조정하는 방식으로 각 피사체의 위치를 특정할 수 있다.First, as shown in (a) of FIG. 10, the location of each subject can be specified by referring to the positional relationship between each subject and a ray connected to the same control target object on the reference space (on the three-dimensional coordinate system). can In one embodiment, the control target object location determination unit 206 may include a ray connecting the first subject 1010 and each control target object (ⓐ to ⓗ) and the second subject 1020 and each control target object ( The location of each subject can be specified by adjusting the positional relationship between the ray lines connecting ⓐ to ⓗ). In one embodiment, the control target object location determining unit 206 intersects the same control target object and the same control target object so that the distance between the straight lines connected to the same control target object is the shortest on the reference space. The position of each subject can be specified by adjusting the positional relationship between the connected ray lines.

다음으로, 도 10의 (b)에 도시된 바와 같이, 제어 대상 객체 위치 결정부(206)는 반직선 정보를 기초로 적어도 하나의 제어 대상 객체 각각의 위치를 결정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로가 서로 교차하는 교차점을 해당 제어 대상 객체의 위치로 결정할 수 있다. 일 실시예에서, 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로 사이에 교차점이 없는 경우, 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 한 점을 적어도 하나의 제어 대상 객체 각각의 위치로 결정할 수 있다. 일 실시예에서, 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로 사이에 교차점이 없는 경우, 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 중점이 기준 공간 상에서 제어 대상 객체가 존재하는 위치로 특정될 수 있다.Next, as shown in (b) of FIG. 10 , the control target object position determination unit 206 may determine the position of each of the at least one control target object based on the ray information. In one embodiment, the control target object location determiner 206 determines an intersection point where a ray path of the first ray information and a ray path of the second linear information for each of the at least one control target object intersect with each other of the corresponding control target object. location can be determined. In one embodiment, when there is no intersection between the ray path of the first ray information and the ray path of the second ray information, the ray path of the first ray information and the ray of the second linear information for each of the at least one control target object One point of the shortest connection line of the path may be determined as a position of each of the at least one control target object. In one embodiment, when there is no intersection between the linear path of the first linear information and the linear path of the second linear information, the criterion is the midpoint of the shortest connecting line between the linear path of the first linear information and the linear path of the second linear information. It may be specified as a location where a control target object exists in space.

제어 대상 객체 위치 결정부(206)는 각 제어 대상 객체의 자세도 결정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 각 제어 대상 객체의 카메라 모듈의 자세(요각, 피치각, 롤각)를 산출함으로써, 각 제어 대상 객체의 자세를 결정할 수 있다. 구체적으로, 제어 대상 객체 위치 결정부(206)는 각각의 제어 대상 객체의 카메라 모듈에서 촬영한 피사체의 이미지 상에서 검출된 피사체의 픽셀 좌표를 기준으로 카메라 모듈의 파라미터(가로, 세로 화각 정보)를 참고하여 카메라 모듈의 자세(요각, 피치각, 롤각)를 특정할 수 있다. 예컨대, 도 10의 (c)에 도시된 바와 같이, 텔레비전(ⓔ)의 카메라 모듈에서 촬영한 제1 피사체(1010)의 이미지 상에서 얼굴 영역의 픽셀 좌표(P_e)를 검출하고, 검출된 얼굴 영역의 픽셀 좌표(P_e)를 기준으로 텔레비전(ⓔ)의 카메라 모듈의 가로, 세로 화각 정보를 참고하여 텔레비전(ⓔ)의 카메라 모듈의 자세를 특정할 수 있으며, 특정된 카메라 모듈의 자세로부터 텔레비전(ⓔ)의 자세를 추정할 수 있다. 마찬가지로, 스탠드(ⓗ)의 카메라 모듈에서 촬영한 제1 피사체(1010)의 이미지 상에서 얼굴 영역의 픽셀 좌표(P_h)를 검출하고, 검출된 얼굴 영역의 픽셀 좌표(P_h)를 기준으로 스탠드(ⓗ)의 카메라 모듈의 가로, 세로 화각 정보를 참고하여 스탠드(ⓗ)의 카메라 모듈의 자세를 특정할 수 있으며, 특정된 카메라 모듈의 자세로부터 스탠드(ⓗ)의 자세를 추정할 수 있다.The control target object position determining unit 206 may also determine the posture of each control target object. In an embodiment, the control target object location determining unit 206 may determine the posture of each control target object by calculating the posture (yaw angle, pitch angle, roll angle) of the camera module of each control target object. Specifically, the control target object position determining unit 206 refers to parameters (horizontal and vertical angle of view information) of the camera module based on the pixel coordinates of the subject detected on the subject image captured by the camera module of each control target object. Thus, the posture (yaw angle, pitch angle, roll angle) of the camera module can be specified. For example, as shown in (c) of FIG. 10 , pixel coordinates P_e of the face area are detected on the image of the first subject 1010 captured by the camera module of the television (ⓔ), and The posture of the camera module of the television (ⓔ) can be specified by referring to information on the horizontal and vertical angles of view of the camera module of the television (ⓔ) based on the pixel coordinates (P_e). position can be estimated. Similarly, the pixel coordinates (P_h) of the face area are detected on the image of the first subject 1010 captured by the camera module of the stand (ⓗ), and the stand (ⓗ) detects the pixel coordinates (P_h) of the detected face area. The posture of the camera module of the stand ⓗ can be specified by referring to information on the horizontal and vertical angles of view of the camera module of , and the posture of the stand ⓗ can be estimated from the specified posture of the camera module.

한편, 여기서는 제어 대상 객체 위치 결정부(206)에서 제어 대상 객체의 자세를 결정하는 것으로 설명하였으나, 필요에 따라 지도 생성 장치(140)의 다른 구성요소에서 제어 대상 객체의 자세를 결정하는 기능이 구현될 수도 있을 것이다.Meanwhile, although it has been described here that the control target object position determining unit 206 determines the posture of the control target object, other components of the map generating device 140 implement a function of determining the posture of the control target object as needed. It could be.

이처럼, 제어 대상 객체 위치 결정부(206)는 3차원 공간 상에서의 각각의 제어 대상 객체의 위치 뿐만 아니라 자세도 결정할 수 있으며, 이에 따라 각각의 제어 대상 객체의 위치에 결정된 자세로 제어 대상 객체를 배치시킴으로써, 3차원의 제어 대상 객체의 지도를 생성할 수 있다.In this way, the control target object location determiner 206 may determine not only the position but also the posture of each control target object in the 3D space, and accordingly, the control target object is disposed at the position of each control target object with the determined posture. By doing so, it is possible to create a 3D map of the object to be controlled.

한편, 본 개시의 일 실시예에 따르면, 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 과정에서 피사체의 영역 이미지의 롤각(roll angle)에 대하여 보정을 수행할 수 있다.Meanwhile, according to an embodiment of the present disclosure, a roll angle of an image of a region of a subject may be corrected in a process of determining a position of each of the at least one control target object.

본 개시의 다른 실시예에 따르면, 제어 대상 객체 위치 결정부(206)는 각 피사체의 롤각(roll angle) 및 적어도 하나의 제어 대상 객체의 롤각을 결정하는 기능을 수행할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 제1 피사체의 제1 영역의 롤각 및 제2 피사체의 제2 영역의 롤각을 결정할 수 있다. 일 실시예에서, 제어 대상 객체 위치 결정부(206)는 제어 대상 객체의 카메라 모듈의 롤각을 결정할 수 있다.According to another embodiment of the present disclosure, the control target object position determining unit 206 may perform a function of determining a roll angle of each subject and at least one control target object. In an embodiment, the control target object location determiner 206 may determine a roll angle of a first area of a first subject and a roll angle of a second area of a second subject. In one embodiment, the control target object position determiner 206 may determine the roll angle of the camera module of the control target object.

도 11 및 도 12는 본 개시의 다른 실시예에 따라 피사체의 영역 이미지의 롤각을 보정하는 방법을 예시적으로 나타내는 도면이다.11 and 12 exemplarily illustrate a method of correcting a roll angle of an image of an area of a subject according to another embodiment of the present disclosure.

먼저, 제어 대상 객체 위치 결정부(206)는, 도 11의 (a)에 도시된 바와 같이, 각각의 제어 대상 객체의 카메라 모듈에서 제1 피사체인 사용자의 얼굴 영역 이미지의 롤각을 검출할 수 있다. 예를 들어, 각각의 제어 대상 객체에 의해 검출된 사용자의 얼굴 영역 이미지의 롤각은, 거울(ⓐ)은 -2°, 스피커(ⓑ)는 8°, 블라인드(ⓒ)는 -2°, 가습기(ⓓ)는 -2°, 텔레비전(ⓔ)은 -26°, 조명(ⓕ)은 -2°, 에어컨(ⓖ)은 11°, 스탠드(ⓗ)는 -2°일 수 있다. 또한, 제어 대상 객체 위치 결정부(206)는, 도 11의 (b)에 도시된 바와 같이, 각각의 제어 대상 객체의 카메라 모듈에서 제2 피사체인 디스플레이의 화면 영역 이미지의 롤각을 검출할 수 있다. 예를 들어, 각각의 제어 대상 객체에 의해 검출된 디스플레이의 화면 영역 이미지의 롤각은, 거울(ⓐ)은 0°스피커(ⓑ)는 10°, 블라인드(ⓒ)는 0°, 가습기(ⓓ)는 0°, 텔레비전(ⓔ)은 -24°, 조명(ⓕ)은 0°, 에어컨(ⓖ)은 13°, 스탠드(ⓗ)는 0°일 수 있다.First, as shown in FIG. 11(a) , the control target object location determiner 206 may detect a roll angle of an image of the user's face region, which is the first subject, from the camera module of each control target object. . For example, the roll angle of the user's face area image detected by each control target object is -2° for the mirror (ⓐ), 8° for the speaker (ⓑ), -2° for the blind (ⓒ), and -2° for the humidifier ( ⓓ) is -2°, TV (ⓔ) is -26°, lighting (ⓕ) is -2°, air conditioner (ⓖ) is 11°, and stand (ⓗ) is -2°. Also, as shown in FIG. 11(b) , the control target object location determiner 206 may detect a roll angle of an image of the screen area of the display, which is the second subject, from the camera module of each control target object. . For example, the roll angle of the screen area image of the display detected by each control target object is 0° for the mirror (ⓐ), 10° for the speaker (ⓑ), 0° for the blind (ⓒ), and 0° for the humidifier (ⓓ). 0°, -24° for the television (ⓔ), 0° for the lighting (ⓕ), 13° for the air conditioner (ⓖ), and 0° for the stand (ⓗ).

일 실시예에서, 제어 대상 객체 위치 결정부(206)는, 제어 대상 객체의 카메라 모듈에서 검출한 피사체의 롤각에 기반하여 피사체의 영역의 롤각을 결정할 수 있다. 구체적으로, 각 제어 대상 객체에서 검출한 롤각 중 평균치에서 크게 벗어나는 아웃라이어(outlier)를 제외하고 유효한 롤각의 평균을 계산하여 해당 피사체의 영역의 롤각으로 결정할 수 있다. 이에 따라, 도 11의 (a)에서, 제1 피사체인 사용자의 얼굴 영역의 롤각은 -2°로 결정할 수 있으며, 도 11의 (b)에서, 제2 피사체인 디스플레이의 화면 영역의 롤각은 0°로 결정할 수 있다.In an embodiment, the control target object position determining unit 206 may determine a roll angle of a region of a subject based on a roll angle of the subject detected by a camera module of the control target object. Specifically, the roll angle of the region of the subject may be determined by calculating the average of effective roll angles excluding outliers that deviate greatly from the average among the roll angles detected in each control target object. Accordingly, in (a) of FIG. 11, the roll angle of the user's face area, which is the first subject, may be determined to be -2°, and in (b) of FIG. 11, the roll angle of the screen area of the display, which is the second subject, is 0. ° can be determined.

이어서, 도 12에 도시된 바와 같이, 제어 대상 객체 위치 결정부(206)는, 피사체의 영역의 롤각을 기반으로 각 제어 대상 객체의 카메라 모듈의 롤각을 결정할 수 있다. 구체적으로, 도 12의 (a)에 도시된 바와 같이, 특정한 얼굴 영역의 롤각(즉, -2°)을 기반으로 제어 대상 객체에서 검출한 얼굴 영역 이미지의 롤각에 대하여 보정을 수행하면, 스피커(ⓑ)는 10°, 텔레비전(ⓔ) 은 -24°, 에어컨(ⓖ)은 13°가 되는데, 이러한 차이는 해당 제어 대상 객체의 카메라 모듈의 회전에 의해 발생한 오차로 판단하여, 해당 제어 대상 객체의 카메라 모듈의 롤각을 결정할 수 있다. 마찬가지로, 도 12의 (b)에 도시된 바와 같이, 특정한 화면 영역의 롤각(즉, 0°)을 기반으로 제어 대상 객체에서 검출한 화면 영역 이미지의 롤각에 대하여 보정을 수행하면, 스피커(ⓑ)는 10°, 텔레비전(ⓔ)은 -24°, 에어컨(ⓖ)은 13°가 되는데, 이러한 차이 역시 해당 제어 대상 객체의 카메라 모듈의 회전에 의해 발생한 오차로 판단하여, 해당 제어 대상 객체의 카메라 모듈의 롤각을 결정할 수 있다. 즉, 스피커(ⓑ)의 카메라 모듈의 롤각은 10°, 텔레비전(ⓔ)의 카메라 모듈의 롤각은 -24°, 에어컨(ⓖ)의 카메라 모듈의 롤각은 13°으로 결정할 수 있다.Subsequently, as shown in FIG. 12 , the control target object position determining unit 206 may determine a roll angle of a camera module of each control target object based on a roll angle of a subject region. Specifically, as shown in (a) of FIG. 12, when the roll angle of the face area image detected from the control target object is corrected based on the roll angle (ie, -2°) of the specific face area, the speaker ( ⓑ) is 10°, the television (ⓔ) is -24°, and the air conditioner (ⓖ) is 13°. A roll angle of the camera module may be determined. Similarly, as shown in (b) of FIG. 12, when the roll angle of the screen area image detected from the object to be controlled is corrected based on the roll angle (ie, 0°) of a specific screen area, the speaker (ⓑ) is 10°, the television (ⓔ) is -24°, and the air conditioner (ⓖ) is 13°. The roll angle of can be determined. That is, the roll angle of the camera module of the speaker ⓑ is 10°, the roll angle of the camera module of the television ⓔ is -24°, and the roll angle of the camera module of the air conditioner ⓖ is 13°.

도 13은 본 개시의 다른 실시예에 따라 제어 대상 객체의 지도를 생성하는 방법을 예시적으로 보여주는 동작 흐름도이다.13 is an operational flowchart exemplarily illustrating a method of generating a map of a control target object according to another embodiment of the present disclosure.

도 13을 참조하면, 본 개시의 다른 실시예에 따른 제어 대상 객체의 지도 생성 방법은 이미지를 수신하는 단계(S1302), 영역 이미지를 검출하는 단계(S1304), 자세 좌표 정보를 생성하는 단계(S1306), 매핑된 좌표 정보를 생성하는 단계(S1308), 방향 좌표 정보를 생성하는 단계(S1310), 반직선 정보를 생성하는 단계(S1312) 및 제어 대상 객체의 위치를 결정하는 단계(S1314)를 포함할 수 있다. Referring to FIG. 13 , a method for generating a map of a control target object according to another embodiment of the present disclosure includes receiving an image (S1302), detecting an area image (S1304), and generating posture coordinate information (S1306). ), generating mapped coordinate information (S1308), generating direction coordinate information (S1310), generating radial line information (S1312), and determining the location of the object to be controlled (S1314). can

먼저, 단계(S1302)에서, 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신할 수 있다. 여기서, 제1 피사체 및 제2 피사체는 서로 다른 위치에 있는 서로 다른 객체 또는 다른 시각에 서로 다른 위치에 있는 동일 객체일 수 있다.First, in step S1302, the map generating device 140 may receive at least one image including a first subject and a second subject from at least one control target object. Here, the first subject and the second subject may be different objects at different locations or the same object at different locations at different times.

이어서, 단계(S1304)에서, 지도 생성 장치(140)는 수신한 이미지 각각에서 각각의 피사체의 영역 이미지를 검출할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 이미지 수신부(202)는 제1 피사체의 제1 영역 이미지 및 제2 피사체의 제2 영역 이미지를 검출할 수 있다. 여기서, 제1 피사체의 제1 영역 이미지는 사용자의 얼굴 영역 이미지일 수 있으며, 제2 피사체의 제2 영역 이미지는 디스플레이의 화면 영역 이미지일 수 있다. Subsequently, in step S1304, the map generating device 140 may detect an area image of each subject from each received image. In an embodiment, the image receiving unit 202 of the map generating device 140 may detect an image of a first area of a first subject and an image of a second area of a second subject. Here, the image of the first area of the first subject may be an image of the user's face area, and the image of the second area of the second subject may be an image of the screen area of the display.

다음으로, 단계(S1306)에서, 지도 생성 장치(140)는 단계(S1304)에서 검출한 영역 이미지를 분석하여 자세 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 좌표 정보 생성부(204)는 제1 피사체의 제1 영역 이미지를 분석하여 제1 자세 좌표 정보를 생성할 수 있으며, 제2 피사체의 제2 영역 이미지를 분석하여 제2 자세 좌표 정보를 생성할 수 있다.Next, in step S1306, the map generating device 140 may analyze the region image detected in step S1304 to generate posture coordinate information. In an embodiment, the coordinate information generating unit 204 of the map generating device 140 may generate first posture coordinate information by analyzing the image of the first area of the first subject, and may generate the image of the second area of the second subject. By analyzing the second posture coordinate information may be generated.

단계(S1308)에서, 지도 생성 장치(140)는 단계(S1306)에서 생성된 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 좌표 정보 생성부(204)는 제1 자세 좌표 정보에 적어도 하나의 제어 대상 객체를 각각 매핑하여 제1 매핑된 좌표 정보를 생성할 수 있으며, 제2 자세 좌표 정보에 제어 대상 객체를 각각 매핑하여 제2 매핑된 좌표 정보를 생성할 수 있다.In step S1308, the map generating device 140 may generate mapped coordinate information by mapping at least one control target object to the posture coordinate information generated in step S1306. In an embodiment, the coordinate information generation unit 204 of the map generating device 140 may generate first mapped coordinate information by mapping at least one control target object to the first posture coordinate information, respectively; Second mapped coordinate information may be generated by mapping control target objects to posture coordinate information, respectively.

단계(S1310)에서, 지도 생성 장치(140)는 매핑된 좌표 정보를 피사체를 기준으로 변환하여 방향 좌표 정보를 생성할 수 있다. 일 실시예에서, 좌표 정보 생성부(204)는 제1 매핑된 좌표 정보를 제1 피사체를 기준으로 변환하여 제1 방향 좌표 정보를 생성할 수 있으며, 제2 매핑된 좌표 정보를 제2 피사체를 기준으로 변환하여 제2 방향 좌표 정보를 생성할 수 있다.In step S1310, the map generating device 140 may generate direction coordinate information by transforming the mapped coordinate information based on the subject. In an embodiment, the coordinate information generation unit 204 may generate first direction coordinate information by transforming the first mapped coordinate information based on the first subject, and convert the second mapped coordinate information to the second subject. The second direction coordinate information may be generated by converting to a standard.

단계(S1312)에서, 지도 생성 장치(140)는 방향 좌표 정보를 기초로 피사체를 기준으로 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 반직선 정보를 생성할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 좌표 정보 생성부(204)는 제1 방향 좌표 정보를 기초로 제1 피사체를 기준으로 복수의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성할 수 있으며, 제2 방향 좌표 정보를 기초로 제2 피사체를 기준으로 복수의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성할 수 있다.In step S1312, the map generating device 140 may generate half line information by connecting each of the at least one control target object with a half line based on the subject based on the direction coordinate information. In an embodiment, the coordinate information generation unit 204 of the map generating device 140 connects each of a plurality of control target objects with a ray based on the first subject based on the first direction coordinate information to generate the first ray information. The second half line information may be generated by connecting each of the plurality of control target objects with a half line based on the second subject based on the second direction coordinate information.

단계(S1314)에서, 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체 각각의 위치를 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 제어 대상 객체 위치 결정부(206)는 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로가 서로 교차하는 교차점을 해당 제어 대상 객체의 위치로 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)의 제어 대상 객체 위치 결정부(206)는 적어도 하나의 제어 대상 객체 각각에 대한 제1 반직선 정보의 반직선 경로와 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 한 점을 적어도 하나의 제어 대상 객체 각각의 위치로 결정할 수 있다.In step S1314, the map generating device 140 may determine the location of each of the at least one control target object. In an embodiment, the control target object location determiner 206 of the map generating device 140 determines that a linear path of first linear information and a linear path of second linear information for each of at least one control target object intersect each other. The intersection point can be determined as the position of the corresponding object to be controlled. In an embodiment, the control target object location determiner 206 of the map generating device 140 is configured to connect the shortest distance between a linear path of the first linear information and a linear path of the second linear information for each of the at least one control target object. One point of may be determined as a position of each of the at least one control target object.

또한, 단계(S1314)에서, 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체 각각의 자세를 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체의 카메라 모듈 각각의 자세를 산출하고, 이로부터 적어도 하나의 제어 대상 객체 각각의 자세를 결정할 수 있다. 구체적으로, 지도 생성 장치(140)는 각각의 제어 대상 객체의 카메라 모듈에서 촬영한 이미지 상에서 검출된 피사체의 픽셀 좌표를 기준으로 제어 대상 객체의 카메라 모듈의 파라미터(가로, 세로 화각 정보)를 참고하여 제어 대상 객체의 카메라 모듈의 자세(요각, 피치각, 롤각)를 산출할 수 있고, 이로부터 적어도 하나의 제어 대상 객체의 자세를 결정할 수 있다.Also, in step S1314, the map generating device 140 may determine the posture of each of the at least one control target object. In an embodiment, the map generating device 140 may calculate a posture of each camera module of at least one control target object, and determine a posture of each of the at least one control target object from the calculated posture. Specifically, the map generating device 140 refers to the parameter (horizontal and vertical angle of view information) of the camera module of the control object based on the pixel coordinates of the subject detected on the image taken by the camera module of each control object. The posture (yaw angle, pitch angle, roll angle) of the camera module of the object to be controlled may be calculated, and the posture of at least one object to be controlled may be determined therefrom.

한편, 단계(S1314)에서, 지도 생성 장치(140)는 각 피사체의 롤각 및 각 제어 대상 객체의 롤각을 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 아웃라이어를 제외하고 유효한 롤각의 평균을 해당 피사체의 영역의 롤각으로 결정할 수 있다. 일 실시예에서, 지도 생성 장치(140)는 제1 피사체의 제1 영역의 롤각을 기반으로 적어도 하나의 제어 대상 객체의 롤각을 결정할 수 있으며, 제2 피사체의 제2 영역의 롤각을 기반으로 적어도 하나의 제어 대상 객체의 롤각을 결정할 수 있다.Meanwhile, in step S1314, the map generating device 140 may determine a roll angle of each subject and a roll angle of each control target object. In an embodiment, the map generating apparatus 140 may determine an average of effective roll angles as the roll angle of the region of the subject, excluding outliers. In an embodiment, the map generating device 140 may determine the roll angle of at least one control target object based on the roll angle of the first area of the first subject, and based on the roll angle of the second area of the second subject, at least one The roll angle of one control target object can be determined.

추가적인 단계(미도시)에서 지도 생성 장치(140)는 적어도 하나의 제어 대상 객체 각각의 위치와 자세를 기초로 제어 대상 객체의 지도(3차원 지도)를 생성할 수 있다.In an additional step (not shown), the map generating device 140 may generate a map (3D map) of the control target object based on the position and posture of each of the at least one control target object.

이처럼, 본 실시예에서는, 둘 이상의 피사체를 기준으로 각 제어 대상 객체의 좌표 정보를 생성하여 제어 대상 객체의 지도를 생성할 수 있다. 특히, 각각의 피사체와 각각의 제어 대상 객체를 반직선으로 연결하여 반직선 정보를 생성하고, 반직선 정보의 반직선 경로 사이의 위치 관계를 참조하여 제어 대상 객체의 위치를 결정함으로써, 3차원의 제어 대상 객체의 지도를 생성할 수 있다. As such, in the present embodiment, a map of the control target object may be created by generating coordinate information of each control target object based on two or more subjects. In particular, by connecting each subject and each control target object with a ray to generate ray information, and determining the position of the control target object by referring to the positional relationship between the ray paths of the ray information, the three-dimensional control target object You can create maps.

이상 설명된 본 개시에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 개시를 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 개시에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present disclosure described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer readable recording medium. A computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present disclosure, or may be known and usable to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler. A hardware device may be modified with one or more software modules to perform processing according to the present disclosure and vice versa.

이상 본 개시를 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예에 의해 설명하였으나, 상기 실시예는 본 개시의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 개시가 이에 한정되는 것은 아니며, 본 개시가 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.Although the present disclosure has been described with specific details and limited examples, such as specific components, the above embodiments are only provided to help a more general understanding of the present disclosure, and the present disclosure is not limited thereto, and the present disclosure is not limited thereto. Those skilled in the art can make various modifications and variations from these descriptions.

따라서, 본 개시의 사상은 앞서 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 청구범위뿐만 아니라 이 청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 개시의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present disclosure should not be limited to the embodiments described above and should not be defined, and it can be said that not only the claims described below but also all modifications equivalent or equivalent to these claims fall within the scope of the spirit of the present disclosure. will be.

100: 제어 대상 객체 제어 시스템
110: 사용자 단말
120: 제어 대상 객체
130: 통신망
140: 지도 생성 장치
100: control target object control system
110: user terminal
120: object to be controlled
130: communication network
140: map generating device

Claims (14)

제어 대상 객체의 지도를 생성하는 방법으로서,
적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계;
상기 적어도 하나의 이미지 각각에서 상기 피사체의 영역 이미지를 검출하는 단계;
상기 영역 이미지를 분석하여 자세 좌표 정보를 생성하는 단계;
상기 자세 좌표 정보에 상기 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하는 단계; 및
상기 매핑된 좌표 정보를 상기 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 단계;
를 포함하는 제어 대상 객체의 지도를 생성하는 방법.
As a method of generating a map of a control target object,
receiving at least one image including a subject from at least one control target object;
detecting an area image of the subject from each of the at least one image;
generating posture coordinate information by analyzing the area image;
generating mapped coordinate information by mapping the at least one control target object to the posture coordinate information; and
converting the mapped coordinate information based on the subject to generate direction coordinate information;
A method of generating a map of a control target object including a.
제1항에 있어서,
상기 자세 좌표 정보 생성 단계는, 상기 영역 이미지의 요각 및 피치각을 검출하는 방식으로 수행되는, 제어 대상 객체의 지도를 생성하는 방법.
According to claim 1,
The generating of the posture coordinate information is performed by detecting yaw angles and pitch angles of the region image.
제1항에 있어서,
상기 매핑된 좌표 정보 생성 단계는, 상기 영역 이미지를 해당 영역 이미지를 촬영한 제어 대상 객체와 매칭시키는 단계를 포함하는, 제어 대상 객체의 지도를 생성하는 방법.
According to claim 1,
The method of generating a map of a control target object, wherein the generating of the mapped coordinate information includes matching the region image with a control target object obtained by photographing a corresponding region image.
제1항에 있어서,
상기 방향 좌표 정보 생성 단계는, 요각 및 피치각에 따른 자세 좌표 정보를 상하좌우의 방향에 따른 방향 좌표 정보로 변환하는 방식으로 수행되는, 제어 대상 객체의 지도를 생성하는 방법.
According to claim 1,
The method of generating a map of a control target object, wherein the generating of the directional coordinate information is performed by converting posture coordinate information according to yaw and pitch angles into directional coordinate information according to up, down, left and right directions.
제어 대상 객체의 지도를 생성하는 방법으로서,
적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하는 단계;
상기 적어도 하나의 이미지 각각에서 상기 제1 피사체의 제1 영역 이미지 및 상기 제2 피사체의 제2 영역 이미지를 검출하는 단계;
상기 제1 영역 이미지 및 상기 제2 영역 이미지를 각각 분석하여 제1 자세 좌표 정보 및 제2 자세 좌표 정보를 생성하는 단계;
상기 제1 자세 좌표 정보 및 상기 제2 자세 좌표 정보에 상기 적어도 하나의 제어 대상 객체를 각각 매핑하여 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 생성하는 단계;
상기 제1 매핑된 좌표 정보 및 상기 제2 매핑된 좌표 정보를 각각 상기 제1 피사체 및 상기 제2 피사체를 기준으로 변환하여 제1 방향 좌표 정보 및 제2 방향 좌표 생성 정보를 생성하는 단계;
상기 제1 방향 좌표 정보를 기초로 상기 제1 피사체를 기준으로 상기 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성하고, 상기 제2 방향 좌표 정보를 기초로 상기 제2 피사체를 기준으로 상기 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성하는 단계; 및
상기 제1 반직선 정보 및 상기 제2 반직선 정보를 기초로 상기 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 단계;
를 포함하는 제어 대상 객체의 지도를 생성하는 방법.
As a method of generating a map of a control target object,
receiving at least one image including a first subject and a second subject from at least one control target object;
detecting a first area image of the first subject and a second area image of the second subject from each of the at least one image;
generating first posture coordinate information and second posture coordinate information by analyzing the first region image and the second region image, respectively;
generating first mapped coordinate information and second mapped coordinate information by mapping the at least one control target object to the first posture coordinate information and the second posture coordinate information, respectively;
converting the first mapped coordinate information and the second mapped coordinate information based on the first subject and the second subject, respectively, to generate first direction coordinate information and second direction coordinate generation information;
Based on the first direction coordinate information, first half line information is generated by connecting each of the at least one control target object with a half line based on the first subject, and the second subject based on the second direction coordinate information. generating second half line information by connecting each of the at least one control target object with a half line based on; and
determining a location of each of the at least one control target object based on the first and second linear information;
A method of generating a map of a control target object including a.
제5항에 있어서,
상기 제어 대상 객체 위치 결정 단계는,
상기 적어도 하나의 제어 대상 객체 각각에 대한 상기 제1 반직선 정보의 반직선 경로와 상기 제2 반직선 정보의 반직선 경로가 서로 교차하는 교차점을 해당 제어 대상 객체의 위치로 결정하는 단계; 또는
상기 적어도 하나의 제어 대상 객체 각각에 대한 상기 제1 반직선 정보의 반직선 경로와 상기 제2 반직선 정보의 반직선 경로의 최단거리 연결선의 한 점을 상기 적어도 하나의 제어 대상 객체 각각의 위치로 결정하는 단계
를 포함하는, 제어 대상 객체의 지도를 생성하는 방법.
According to claim 5,
In the step of determining the position of the object to be controlled,
determining an intersection point where a ray path of the first ray information and a ray path of the second linear information for each of the at least one control target object intersect as a position of the corresponding control target object; or
Determining a point of a shortest connecting line between a ray path of the first ray information and a ray path of the second linear information for each of the at least one control target object as the position of each of the at least one control target object;
Including, a method for generating a map of the control target object.
제5항에 있어서,
상기 제어 대상 객체 위치 결정 단계는 상기 적어도 하나의 제어 대상 객체 각각의 자세를 결정하는 단계를 포함하는, 제어 대상 객체의 지도를 생성하는 방법.
According to claim 5,
The method of generating a map of a control target object, wherein the determining of the control target object position comprises determining a posture of each of the at least one control target object.
제7항에 있어서,
상기 제어 대상 객체 자세 결정 단계에서는, 상기 적어도 하나의 제어 대상 객체의 카메라 모듈 각각의 자세로부터 상기 적어도 하나의 제어 대상 객체 각각의 자세를 결정하는, 제어 대상 객체의 지도를 생성하는 방법.
According to claim 7,
In the determining of the posture of the object to be controlled, the posture of each of the at least one target object to be controlled is determined from the posture of each of the camera modules of the at least one object to be controlled.
제5항에 있어서,
상기 제어 대상 객체 위치 결정 단계는,
상기 제1 피사체의 제1 영역의 롤각 및 상기 제2 피사체의 제2 영역의 롤각을 결정하는 단계; 및
상기 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계를 더 포함하는,
제어 대상 객체의 지도를 생성하는 방법.
According to claim 5,
In the step of determining the position of the object to be controlled,
determining a roll angle of a first area of the first subject and a roll angle of a second area of the second subject; and
Further comprising determining a roll angle of the at least one control target object,
How to create a map of controlled objects.
제9항에 있어서,
상기 제1 피사체의 제1 영역의 롤각 및 상기 제2 피사체의 제2 영역의 롤각 결정 단계에서는,
아웃라이어를 제외하고 유효한 롤각의 평균을 해당 피사체의 영역의 롤각으로 결정하는, 제어 대상 객체의 지도를 생성하는 방법.
According to claim 9,
In the step of determining the roll angle of the first area of the first subject and the roll angle of the second area of the second subject,
A method of generating a map of a control target object in which an average of effective roll angles is determined as a roll angle of a region of a corresponding subject, excluding outliers.
제9항에 있어서,
상기 적어도 하나의 제어 대상 객체의 롤각 결정 단계는,
상기 제1 피사체의 제1 영역의 롤각을 기반으로 상기 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계; 및
상기 제2 피사체의 제2 영역의 롤각을 기반으로 상기 적어도 하나의 제어 대상 객체의 롤각을 결정하는 단계를 포함하는, 제어 대상 객체의 지도를 생성하는 방법.
According to claim 9,
The step of determining the roll angle of the at least one control target object,
determining a roll angle of the at least one control target object based on a roll angle of a first region of the first subject; and
and determining a roll angle of the at least one control target object based on a roll angle of a second region of the second subject.
제1항 내지 제11항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.A non-temporary computer readable recording medium storing a computer program for executing the method according to any one of claims 1 to 11. 제어 대상 객체의 지도를 생성하는 장치로서,
적어도 하나의 제어 대상 객체로부터 피사체를 포함하는 적어도 하나의 이미지를 수신하고, 상기 적어도 하나의 이미지 각각에서 상기 피사체의 영역 이미지를 검출하는 이미지 수신부,
상기 영역 이미지를 분석하여 자세 좌표 정보를 생성하고, 상기 자세 좌표 정보에 상기 적어도 하나의 제어 대상 객체를 매핑하여 매핑된 좌표 정보를 생성하며, 상기 매핑된 좌표 정보를 상기 피사체를 기준으로 변환하여 방향 좌표 정보를 생성하는 좌표 정보 생성부 및
상기 방향 좌표 정보를 기초로 상기 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 제어 대상 객체 위치 결정부
를 포함하는 제어 대상 객체의 지도를 생성하는 장치.
A device for generating a map of a control target object,
an image receiver configured to receive at least one image including a subject from at least one control target object, and to detect an image of a region of the subject in each of the at least one image;
Posture coordinate information is generated by analyzing the area image, mapped coordinate information is generated by mapping the at least one control target object to the posture coordinate information, and the mapped coordinate information is converted based on the subject to determine direction A coordinate information generation unit for generating coordinate information; and
A control target object location determiner configured to determine a position of each of the at least one control target object based on the direction coordinate information.
A device for generating a map of a control target object comprising a.
제어 대상 객체의 지도를 생성하는 장치로서,
적어도 하나의 제어 대상 객체로부터 제1 피사체 및 제2 피사체를 포함하는 적어도 하나의 이미지를 수신하고, 상기 적어도 하나의 이미지 각각에서 상기 제1 피사체의 제1 영역 이미지 및 상기 제2 피사체의 제2 영역 이미지를 검출하는 이미지 수신부,
상기 제1 영역 이미지 및 상기 제2 영역 이미지를 각각 분석하여 제1 자세 좌표 정보 및 제2 자세 좌표 정보를 생성하고, 상기 제1 자세 좌표 정보 및 상기 제2 자세 좌표에 각각 상기 적어도 하나의 제어 대상 객체를 매핑하여 제1 매핑된 좌표 정보 및 제2 매핑된 좌표 정보를 생성하며, 상기 제1 매핑된 좌표 정보 및 상기 제2 매핑된 좌표 정보를 각각 상기 제1 피사체 및 상기 제2 피사체를 기준으로 변환하여 제1 방향 좌표 정보 및 제2 방향 좌표 정보를 생성하고, 상기 제1 방향 좌표 정보를 기초로 상기 제1 피사체를 기준으로 상기 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제1 반직선 정보를 생성하며, 상기 제2 방향 좌표 정보를 기초로 상기 제2 피사체를 기준으로 상기 적어도 하나의 제어 대상 객체 각각을 반직선으로 연결하여 제2 반직선 정보를 생성하는 좌표 정보 생성부 및
상기 제1 반직선 정보 및 상기 제2 반직선 정보를 기초로 상기 적어도 하나의 제어 대상 객체 각각의 위치를 결정하는 제어 대상 객체 위치 결정부
를 포함하는 제어 대상 객체의 지도를 생성하는 장치.
A device for generating a map of a control target object,
Receiving at least one image including a first subject and a second subject from at least one control target object, and in each of the at least one image, a first area image of the first subject and a second area of the second subject an image receiver for detecting an image;
Analyzing the first region image and the second region image, respectively, first posture coordinate information and second posture coordinate information are generated, and the at least one control target is assigned to the first posture coordinate information and the second posture coordinate, respectively. An object is mapped to generate first mapped coordinate information and second mapped coordinate information, and the first mapped coordinate information and the second mapped coordinate information are based on the first subject and the second subject, respectively. transform to generate first direction coordinate information and second direction coordinate information, and connect each of the at least one control target object with a half line based on the first subject based on the first direction coordinate information to obtain the first half line information. And a coordinate information generation unit configured to generate second half line information by connecting each of the at least one control target object with a half line based on the second subject based on the second direction coordinate information, and
A control target object position determination unit determining a position of each of the at least one control target object based on the first and second linear line information.
A device for generating a map of a control target object comprising a.
KR1020220023742A 2022-02-23 2022-02-23 Method, system and non-transitory computer-readable recording medium for generating a map of controlled object KR20230126495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220023742A KR20230126495A (en) 2022-02-23 2022-02-23 Method, system and non-transitory computer-readable recording medium for generating a map of controlled object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220023742A KR20230126495A (en) 2022-02-23 2022-02-23 Method, system and non-transitory computer-readable recording medium for generating a map of controlled object

Publications (1)

Publication Number Publication Date
KR20230126495A true KR20230126495A (en) 2023-08-30

Family

ID=87846252

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220023742A KR20230126495A (en) 2022-02-23 2022-02-23 Method, system and non-transitory computer-readable recording medium for generating a map of controlled object

Country Status (1)

Country Link
KR (1) KR20230126495A (en)

Similar Documents

Publication Publication Date Title
US20220375124A1 (en) Systems and methods for video communication using a virtual camera
JP6445515B2 (en) Detection of gestures made using at least two control objects
US10356393B1 (en) High resolution 3D content
US11472038B2 (en) Multi-device robot control
US11089427B1 (en) Immersive augmented reality experiences using spatial audio
KR102481486B1 (en) Method and apparatus for providing audio
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
WO2017043145A1 (en) Information processing device, information processing method, and program
US20230259261A1 (en) Method for Moving Object, Storage Medium and Electronic device
US11740313B2 (en) Augmented reality precision tracking and display
US11741679B2 (en) Augmented reality environment enhancement
JP2015118442A (en) Information processor, information processing method, and program
US20240045494A1 (en) Augmented reality with eyewear triggered iot
US20230258756A1 (en) Augmented reality precision tracking and display
JP2017016166A (en) Image processing apparatus and image processing method
JP6413521B2 (en) Display control method, information processing program, and information processing apparatus
JP6374203B2 (en) Display system and program
KR20180036359A (en) Method for displaying an image and an electronic device thereof
KR20230126495A (en) Method, system and non-transitory computer-readable recording medium for generating a map of controlled object
WO2022199597A1 (en) Method, apparatus and system for cropping image by vr/ar device
US10795432B1 (en) Maintaining virtual object location
JP2015194880A (en) display system and program
US20240077935A1 (en) Virtual interfaces for controlling iot devices
US20240077934A1 (en) Virtual ar interfaces for controlling iot devices using mobile device orientation sensors
WO2023284072A1 (en) Method and apparatus for controlling projection device, and electronic device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right