KR20230070890A - Region of interest visualization method of electronic apparatus - Google Patents
Region of interest visualization method of electronic apparatus Download PDFInfo
- Publication number
- KR20230070890A KR20230070890A KR1020210156923A KR20210156923A KR20230070890A KR 20230070890 A KR20230070890 A KR 20230070890A KR 1020210156923 A KR1020210156923 A KR 1020210156923A KR 20210156923 A KR20210156923 A KR 20210156923A KR 20230070890 A KR20230070890 A KR 20230070890A
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- view
- region
- interest
- coordinates
- Prior art date
Links
- 238000007794 visualization technique Methods 0.000 title claims abstract description 4
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000012937 correction Methods 0.000 claims abstract description 39
- 241001300198 Caperonia palustris Species 0.000 claims abstract description 14
- 235000000384 Veronica chamaedrys Nutrition 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 21
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000008901 benefit Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000011017 operating method Methods 0.000 description 5
- 230000001149 cognitive effect Effects 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G06T3/0093—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G06T5/006—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
Description
본 개시는 전자 장치의 관심 영역 시각화 방법에 관한 것이다.The present disclosure relates to a method for visualizing a region of interest in an electronic device.
드론 기술의 발전으로 무인 비행 장치 (Unmanned Aerial Vehicle; 이하 UAV)를 원격으로 조정하는 방법에 관한 수요가 증가하고 있다. UAV가 조작자로부터 멀어질 경우 조작자는 UAV의 주변상황에 대한 정보를 파악할 수 없기에 효과적으로 UAV를 조작할 수 없다. 이에 UAV의 원격 조작을 위해서는 UAV의 주변 정보를 조작자에게 전달하는 방법이 필요하다. UAV 조종자는 UAV를 목표 지점으로 보내기 위해 조작 대상이 되는 UAV를 어느 방향으로 이동시켜야 하는지 분명하게 파악해야 효율적으로 기체 조작을 수행 할 수 있다.With the development of drone technology, there is an increasing demand for methods of remotely controlling unmanned aerial vehicles (UAVs). When the UAV moves away from the operator, the operator cannot effectively operate the UAV because the operator cannot grasp information about the UAV's surroundings. Accordingly, a method for transmitting information about the UAV's surroundings to the operator is required for remote operation of the UAV. A UAV pilot must clearly identify in which direction the UAV to be manipulated must be moved in order to send the UAV to the target point in order to efficiently operate the aircraft.
목표 이동 방향을 파악하기 위해 사용자에게는 2가지의 서로 다른 뷰포트(viewport)에서 제공되는 정보가 필요하다. UAV 중심의 1인칭 시점 카메라 정보 (이하 1인칭 뷰)는 UAV 주변의 인접한 장애물 혹은 목표물을 식별하기 위한 정보를 제공할 수 있다. 또한 UAV 주변의 항공뷰(bird's eye view)는 1인칭 카메라 보다 넓은 범위의 거시적인 UAV 이동 동선 계획을 위한 정보를 제공할 수 있다. 즉, 미시적 조작을 위한 정보는 1인칭 뷰, 거시적 조작을 위한 정보는 항공뷰가 제공할 수 있다.In order to determine the target movement direction, the user needs information from two different viewports. UAV-centered first-person view camera information (hereafter referred to as first-person view) may provide information for identifying nearby obstacles or targets around the UAV. In addition, a bird's eye view around the UAV can provide information for planning a macroscopic UAV movement path in a wider range than a first-person camera. That is, information for microscopic manipulation can be provided by a first-person view, and information for macroscopic manipulation can be provided by an aerial view.
사용자는 UAV를 효율적으로, 또한 안전하게 조작하기 위해 1인칭 뷰와 항공뷰의 정보를 번갈아가며 취득해야 한다. 그러나 상기 두 가지 형태의 뷰의 좌표계들은 서로 상이하다.In order to efficiently and safely operate the UAV, users must alternately acquire information from a first-person view and an aerial view. However, the coordinate systems of the two types of views are different from each other.
이에 따라 사용자는 1인칭 뷰에서 항공뷰로, 혹은 항공뷰에서 1인칭 뷰로의 관심 전환 시, 기존 뷰에서의 관심영역의 위치와 방향을 전환된 뷰에서의 위치와 방향으로 치환하기 위한 인지적인 노력이 필요하다. 이로 인한 인지적인 부담은 사용자의 일시적 방향감 상실을 야기할 수 있으며, 이는 UAV 조작 능력을 저해하는 원인으로 작용할 수 있다.Accordingly, when the user switches attention from the first-person view to the aerial view or from the aerial view to the first-person view, cognitive efforts are made to replace the position and direction of the region of interest in the existing view with the position and direction in the switched view. need. The resulting cognitive burden may cause a temporary loss of direction for the user, which may act as a cause of hindering the ability to manipulate the UAV.
본 발명에 따르면, 전자 장치는 본 발명에서 기술되는 방법을 수행하는 프로세서를 포함하여, 카메라 뷰의 관심 영역에 대응하는 항공 뷰의 위치를 파악하거나, 그 반대를 수행할 수 있다. 사용자는 서로 다른 뷰에서 나타난 관심 영역에 대응되는 영역을 용이하게 파악할 수 있다.According to the present invention, an electronic device may include a processor performing the method described in the present invention to locate an aerial view corresponding to a region of interest of a camera view or vice versa. A user can easily grasp a region corresponding to a region of interest shown in different views.
본 발명이 이루고자 하는 기술적 과제는 상기된 바와 같은 과제로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.The technical problem to be achieved by the present invention is not limited to the above problem, and other technical problems can be inferred from the following embodiments.
일 실시예에 따라, 전자 장치의 관심 영역(region of interest) 시각화 방법에 있어서, 카메라 뷰(camera view)에서 상기 관심 영역의 이미지 좌표를 확인하는 단계; 기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하는 단계; 보정된 이미지 좌표, 카메라의 화각 및 자세를 기초로 월드 좌표계에서 상기 카메라로부터 상기 관심 영역의 제1 방향을 확인하는 단계; 상기 제1 방향을 기초로 항공뷰(birdeye's view)에서 상기 관심 영역에 대응하는 제1 좌표를 확인하는 단계; 및 상기 항공뷰에서 상기 제1 좌표에 관한 정보를 표시하는 단계를 포함할 수 있다.According to an embodiment, a method for visualizing a region of interest in an electronic device includes: checking image coordinates of the region of interest in a camera view; correcting the image coordinates using a pre-generated distortion correction function; identifying a first direction of the region of interest from the camera in a world coordinate system based on corrected image coordinates, a view angle of the camera, and a posture; checking first coordinates corresponding to the region of interest in a birdeye's view based on the first direction; and displaying information about the first coordinate in the aerial view.
일 실시예에 따라, 전자 장치로서, 적어도 하나의 프로그램이 저장된 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써, 카메라 뷰(camera view)에서 상기 관심 영역의 이미지 좌표를 확인하고, 기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하고, 보정된 이미지 좌표, 카메라의 화각 및 자세를 기초로 월드 좌표계에서 상기 카메라로부터 상기 관심 영역의 제1 방향을 확인하고, 상기 제1 방향을 기초로 항공뷰(birdeye's view)에서 상기 관심 영역에 대응하는 제1 좌표를 확인하고, 상기 항공뷰에서 상기 제1 좌표에 관한 정보를 표시하는 프로세서를 포함할 수 있다.According to one embodiment, an electronic device includes a memory in which at least one program is stored; and by executing the at least one program, checking the image coordinates of the region of interest in a camera view, correcting the image coordinates using a pre-generated distortion correction function, and using the corrected image coordinates of the camera. Identifying a first direction of the region of interest from the camera in a world coordinate system based on an angle of view and a posture, and determining a first coordinate corresponding to the region of interest in a birdeye's view based on the first direction; A processor displaying information about the first coordinate in the aerial view may be included.
일 실시예에 따라, 전자 장치의 관심 영역(region of interest) 시각화 방법에 있어서, 항공뷰(birdeye's view)에서 상기 관심 영역의 제4 좌표를 확인하는 단계; 상기 제4 좌표를 기초로 월드 좌표계에서 카메라로부터 상기 관심 영역의 제4 방향을 확인하는 단계; 상기 제4 방향, 상기 카메라의 화각 및 자세를 기초로 카메라 뷰(camera view) 에서 상기 관심 영역의 이미지 좌표를 확인하는 단계; 기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하는 단계; 및 상기 카메라 뷰에서 보정된 이미지 좌표에 관한 정보를 표시하는 단계를 포함할 수 있다.According to an embodiment, a method for visualizing a region of interest in an electronic device includes: checking fourth coordinates of the region of interest in a birdeye's view; checking a fourth direction of the ROI from a camera in a world coordinate system based on the fourth coordinate; checking image coordinates of the region of interest in a camera view based on the fourth direction, the angle of view, and the posture of the camera; correcting the image coordinates using a pre-generated distortion correction function; and displaying information about image coordinates corrected in the camera view.
일 실시예에 따라, 전자 장치로서, 적어도 하나의 프로그램이 저장된 메모리; 및 상기 적어도 하나의 프로그램을 실행함으로써, 항공뷰(birdeye's view)에서 상기 관심 영역의 제4 좌표를 확인하고, 상기 제4 좌표를 기초로 월드 좌표계에서 카메라로부터 상기 관심 영역의 제4 방향을 확인하고, 상기 제4 방향, 상기 카메라의 화각 및 자세를 기초로 카메라 뷰(camera view) 에서 상기 관심 영역의 이미지 좌표를 확인하고, 기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하고, 상기 카메라 뷰에서 보정된 이미지 좌표에 관한 정보를 표시하는 프로세서를 포함할 수 있다.According to one embodiment, an electronic device includes a memory in which at least one program is stored; and by executing the at least one program, checking fourth coordinates of the region of interest in a birdeye's view, and determining a fourth direction of the region of interest from a camera in a world coordinate system based on the fourth coordinates; , Checking the image coordinates of the region of interest in a camera view based on the fourth direction, the angle of view and the posture of the camera, correcting the image coordinates using a pre-generated distortion correction function, and It may include a processor displaying information about image coordinates corrected in the view.
일 실시예에 따라, 컴퓨터로 읽을 수 있는 기록매체는 상술한 동작 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 비일시적 기록매체를 포함할 수 있다.According to an embodiment, the computer-readable recording medium may include a non-transitory recording medium on which a program for executing the above-described operating method is recorded on a computer.
기타 실시예들의 구체적인 사항은 상세한 설명 및 도면들에 포함된다.Details of other embodiments are included in the detailed description and drawings.
일반적인 드론 조작기는 기체의 방향을 중심으로 조작이 이뤄진다. 하지만 사용자가 기체조작을 위해서 활용할 수 있는 대표적인 시각적 정보인 1인칭 뷰는 기체의 방향이 아닌 카메라의 방향을 중심으로 제공된다. 이에 사용자는 기체 조작에 대한 방향감을 상실하거나 혼동하기 쉽다. 심지어 1인칭 뷰 만이 아닌 항공뷰를 같이 활용하는 경우라면 이러한 혼동이 가중될 수 있다. 이에 본 발명은 서로 다른 뷰포트로의 전환이 일어날 때, 상기 시각화 방법을 이용하여 뷰포트 전환 시 유발 될 수 있는 방향감 상실, 혼동 및 인지부담을 개선할 수 있다.A typical drone controller is operated based on the direction of the aircraft. However, the first-person view, which is a representative visual information that the user can utilize for aircraft manipulation, is provided based on the camera direction, not the aircraft direction. Accordingly, the user is likely to lose or confuse the sense of direction for aircraft manipulation. Even when using an aerial view instead of a first-person view, this confusion can be aggravated. Accordingly, the present invention can improve disorientation, confusion, and cognitive burden that may occur when switching to a different viewport by using the visualization method when switching to a different viewport.
발명의 효과는 이상에서 언급한 효과만으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위 기재로부터 당해 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있다.Effects of the invention are not limited to only the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description of the claims.
도 1 은 본 개시에 따른 전자 장치를 나타낸다.
도 2 는 이미지의 왜곡 보정 방법의 일례를 나타낸다.
도 3 은 본 개시에 따른 실시예에서, 카메라, 카메라가 촬영한 이미지 및 화각의 관계를 나타낸다.
도 4 는 본 개시에 따른 실시예에서, 카메라, 카메라 뷰에 나타난 관심 영역 및 실제 위치의 관계를 나타낸다.
도 5 는 본 개시에 따른 방법의 카메라 뷰를 제공하는 카메라를 탑재한 UAV의 일례를 나타낸다.
도 6 은 본 개시에 따른 방법에서 카메라 뷰, 항공 뷰 및 월드 좌표계의 관계를 나타낸다.
도 7 은 본 개시에 따른 방법에서 카메라 뷰, 항공 뷰 및 월드 좌표계의 관계를 나타낸다.
도 8 은 본 개시에 따른 방법의 일 실시예를 나타낸다.
도 9 는 본 개시에 따른 방법의 일 실시예를 나타낸다.
도 10 은 본 개시에 따른 방법의 일 실시예를 나타낸다.
도 11 은 본 개시에 따른 방법의 일 실시예를 나타낸다.
도 12 은 본 개시에 따른 방법의 일 실시예를 나타낸다.
도 13 은 본 개시에 따른 방법의 일 실시예를 나타낸다.1 shows an electronic device according to the present disclosure.
2 shows an example of a method for correcting distortion of an image.
3 illustrates a relationship between a camera, an image captured by the camera, and an angle of view in an embodiment according to the present disclosure.
4 illustrates a relationship between a camera, a region of interest shown in a camera view, and an actual location in an embodiment according to the present disclosure.
5 shows an example of a UAV equipped with a camera providing a camera view of the method according to the present disclosure.
6 shows the relationship between a camera view, an aerial view and a world coordinate system in the method according to the present disclosure.
7 shows the relationship between a camera view, an aerial view and a world coordinate system in a method according to the present disclosure.
8 shows one embodiment of a method according to the present disclosure.
9 shows one embodiment of a method according to the present disclosure.
10 shows one embodiment of a method according to the present disclosure.
11 shows one embodiment of a method according to the present disclosure.
12 shows one embodiment of a method according to the present disclosure.
13 shows one embodiment of a method according to the present disclosure.
본 개시에 기술된 실시예는 본 개시를 제한하는 것이 아니라 예시하는 것이고, 통상의 기술자는 첨부된 청구범위에 의해 정의된 본 개시의 범주를 벗어나지 않으면서, 다수의 대안적인 실시예를 설계할 수 있다. 실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The embodiments described in this disclosure are illustrative rather than limiting of the disclosure, and a person skilled in the art may design many alternative embodiments without departing from the scope of the disclosure defined by the appended claims. there is. The terms used in the embodiments have been selected as general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. In addition, in a specific case, there are also terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the corresponding description. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.
달리 반대되는 기재가 없는 한, 본 명세서에서 "뷰포트(viewport)" 및 "뷰(view)"는 "시점(point of view)"과 동일한 의미로 쓰이며, 주변환경을 관찰하는 관점을 뜻한다. Unless otherwise stated, “viewport” and “view” herein are used synonymously with “point of view” and refer to a point of view from which a surrounding environment is observed.
달리 반대되는 기재가 없는 한, 본 명세서에서 "카메라 뷰(camera view)"는 카메라가 주변환경을 관찰하는 시점을 뜻한다. 카메라가 드론 또는 UAV 등에 탑재되어 있다면 일정 상공에서의 카메라 뷰의 시점에서 촬영된 이미지가 존재할 수 있다.Unless stated to the contrary, a “camera view” herein refers to a point in time from which a camera observes its surroundings. If the camera is mounted on a drone or a UAV, an image captured from a camera view point in a certain sky may exist.
달리 반대되는 기재가 없는 한, 본 명세서에서 "항공뷰(bird's eye view)"는 지면으로부터 일정 고도 올라간 상공에서 지면을 내려다보는 시점을 뜻한다. 지도 또는 위성 사진 등은 항공 뷰의 시점에서 그려진 그림에 해당한다.Unless otherwise stated, in this specification, "bird's eye view" means a viewpoint looking down at the ground from above at a certain altitude from the ground. A map or satellite photograph, etc. corresponds to a picture drawn from the point of view of an aerial view.
달리 반대되는 기재가 없는 한, 본 명세서에서 "관심 영역(region of interest)"은 이미지 또는 영상 내에서 사용자가 관심 있는 영역을 의미한다. 이는 특정한 위치의 픽셀 또는 그들의 집합일 수 있다.Unless otherwise stated, “region of interest” in this specification means a region of interest to a user within an image or video. It can be a pixel at a specific location or a set of them.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 반대되는 기재가 존재하지 않는 한, 단수는 물론 복수를 모두 포함한다. Expressions in the singular as used herein include both the singular and the plural unless the context clearly dictates the contrary.
본 명세서 전체에서 어떤 부분이 어떤 구성요소들 또는 어떤 단계들을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 어떤 부분이 구성요소들 또는 단계들을 반드시 모두 포함해야 하는 것은 아니고, 청구범위 또는 명세서 전체에 열거된 것 이외의 구성요소 또는 단계가 포함되는 것을 배제하는 것도 아니며, 단지 이들을 더 포함할 수 있음을 의미한다. Throughout this specification, when a part is said to "include" certain elements or certain steps, this does not necessarily mean that a part must include all of the elements or steps, unless specifically stated to the contrary. or the inclusion of elements or steps other than those listed throughout the specification, but merely means that they may be further included.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 서수를 포함하는 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 문맥상 명세서의 일 부분에서 일 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1 구성요소는 명세서의 다른 부분에서 제2 구성요소로 명명될 수 있고, 반대로 제2 구성요소도 명세서의 다른 부분에서 제1 구성요소로 명명될 수 있다.Also, terms including ordinal numbers such as first and second used in this specification may be used to describe various components, but the components should not be limited by terms including the ordinal numbers. The terms are used solely for the purpose of distinguishing one element from another element in one part of the specification in context. For example, a first component may be referred to as a second component in another part of the specification without departing from the scope of the present invention, and conversely, the second component may also be referred to as a first component in another part of the specification. It can be.
본 명세서에서 "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.In this specification, terms such as "mechanism", "element", "means", and "configuration" may be used broadly, and are not limited to mechanical and physical components. The term may include a meaning of a series of software routines in association with a processor or the like.
본 명세서(특히 청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 재배열되어 행해질 수 있고, 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 통상의 기술자는 본 명세서에 개시된 실시예에 설계 조건 및 팩터에 따라 다양한 수정, 조합 및 변경을 부가하여 특허청구범위 또는 그 균등물의 범주에 속하는 새로운 실시예를 구성할 수 있다.In this specification (particularly in the claims), the use of the term "the" and similar denoting terms may correspond to both the singular and the plural. In addition, when a range is described, it includes individual values belonging to the range (unless otherwise stated), as if each individual value constituting the range was described in the detailed description. Finally, if the order of the steps constituting the method is not explicitly described or stated to the contrary, the steps may be rearranged in an appropriate order and are not necessarily limited to the order in which the steps are described. The use of all examples or illustrative terms (eg, etc.) is simply for explaining technical ideas in detail, and the scope is not limited by the examples or illustrative terms unless limited by the claims. A person skilled in the art may add various modifications, combinations, and changes to the embodiments disclosed in this specification according to design conditions and factors to construct new embodiments that fall within the scope of the claims or equivalents thereof.
이하에서는 도면을 참조하여 본 개시의 실시예를 설명한다.Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
도 1 는 본 개시의 적어도 하나의 실시예를 실행하는데 사용될 수 있는 전자 장치(100)의 예시적이고 단순화된 블록도를 나타낸다. 다양한 실시예에서, 전자 장치(100)는 본 개시에서 서술된 임의의 시스템 또는 방법을 구현하는데 사용될 수 있다. 예를 들어, 전자 장치(100)는 데이터 서버, 웹 서버, 휴대용 컴퓨팅 디바이스, 개인용 컴퓨터, 태블릿 컴퓨터, 워크스테이션, 휴대폰, 스마트 폰(smart phone) 또는 아래에서 서술되는 임의의 다른 디바이스를 포함하는 임의의 전자 장치로서 사용되도록 구성될 수 있다.1 shows an exemplary and simplified block diagram of an
전자 장치(100)는 메모리(120) 및 메모리(120)와 통신하도록 구성될 수 있는 하나 이상의 캐시 메모리 및 메모리 제어기를 갖는 하나 이상의 프로세서(110)를 포함할 수 있다. 추가적으로, 전자 장치(100)는 하나 이상의 포트(예컨대, USB(Universal Serial Bus), 헤드폰 잭, 라이트닝(Lightning) 커넥터, 썬더볼트(Thunderbolt) 커넥터 등)를 통해 전자 장치(100)에 연결될 수 있는 다른 디바이스를 포함할 수 있다. 전자 장치(100)에 연결될 수 있는 디바이스는 광섬유 커넥터를 수용하도록 구성되는 복수의 포트를 포함할 수 있다. 도시된 전자 장치(100)의 구성은 디바이스의 바람직한 실시예를 예시할 목적으로 특정 예시로서만 의도된다. 도시된 전자 장치(100)에는 본 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 전자 장치(100)에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음은 당해 기술분야의 통상의 기술자에게 자명하다.
프로세서(110)는 전자 장치(100)가 본 개시에서 서술된 임의의 실시예의 단계 또는 기능을 제공하도록 하기 위해 이용될 수 있다. 예를 들어, 프로세서(110)는 전자 장치(100) 내의 메모리(120)에 저장된 프로그램들을 실행함으로써, 전자 장치(100)를 전반적으로 제어한다. 프로세서(110)는 전자 장치(100) 내에 구비된 CPU(central processing unit), GPU(graphics processing unit), AP(application processor) 등으로 구현될 수 있으나, 이에 제한되지 않는다.
메모리(120)는 전자 장치(100) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 메모리(120)는 전자 장치(100)에서 프로세서(110)를 통해 처리된 데이터들 및 처리될 데이터들을 저장할 수 있다. 또한, 메모리(120)는 본 개시의 적어도 하나의 실시예의 기능을 제공할 수 있는 기본 프로그래밍 및 데이터 구조를 저장하는 것은 물론, 본 개시의 실시예의 기능을 제공할 수 있는 애플리케이션들(프로그램, 코드 모듈, 명령어), 드라이버들 등을 저장할 수 있다. 메모리(120)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다. The
일 실시예에서, 전자 장치(100)의 프로세서(110)는 카메라 뷰(camera view)에서 관심 영역의 이미지 좌표를 확인할 수 있다. 이미지 좌표는 픽셀 단위로 나타내어질 수 있다. 예를 들어, 관심 영역은 전자 장치(100)의 메모리(120)에 별도로 저장된 명령을 프로세서(110)가 실행하여, 프로세서(110)에 의해 검출될 수 있다. 이 때 사용되는 명령은 이미지 상에서 대상을 검출하는 알려진 임의의 알고리즘을 포함할 수 있다. 다른 예를 들어, 관심 영역은 사용자가 카메라 뷰의 일 영역을 선택함으로써 검출될 수 있다. 이 때, 전자 장치(100)는 별도의 입력 디바이스를 포함하여, 사용자가 입력 디바이스를 이용하여 카메라 뷰의 일 영역을 선택하도록 할 수 있다. 예를 들어, 사용자는 마우스로 카메라 뷰의 일 영역을 선택하거나, 카메라 뷰를 나타내는 스크린을 터치하는 방식 등 당업자에게 알려진 방식으로 일 영역을 선택할 수 있다. 다른 예를 들어, 프로세서(110)는 사용자가 카메라 뷰의 이미지에서 응시하는 대상을 검출하고, 검출된 대상을 기초로 관심 영역의 이미지 좌표를 결정할 수 있다. 이 때 사용자가 카메라 뷰의 이미지에서 응시하는 대상은 아이트래커(eye tracker) 등의 입력 디바이스를 통해 검출될 수 있다. 이러한 검출 방식은 사용자가 본인의 손을 사용하여 별도의 조작을 할 필요가 없다는 점에서, 사용자의 손이 자유로워지는 이점이 있다.In one embodiment, the
카메라 뷰의 이미지는 광학계의 구성에 따라, 일정 수준의 왜곡(distortion)을 포함할 수 있다. 이에 따라 일 실시예에서, 프로세서(110)는 기 생성된 왜곡 보정 함수를 이용하여 이미지 좌표를 보정할 수 있다. 왜곡은 방사 왜곡(radial distortion) 및 접선왜곡(tangential distortion) 등 알려진 왜곡을 포함할 수 있다. 이에 따라, 왜곡 보정 함수는 카메라에 포함되는 광학계의 방사 왜곡을 보정하는 명령을 포함할 수 있다. 도 2 는 이러한 방사 왜곡이 존재하는 이미지 및 보정된 이미지를 나타낸다. 보정 전 이미지(210)에는 방사 왜곡 중 하나인 배럴 왜곡(barrel distortion)이 존재한다. 보정 전 이미지(210) 상의 점(213)은 보정 후 이미지(220) 상의 점(223)에 대응한다. 방사 왜곡은 이미지가 가로축(211) 및 세로축(212)이 교차하는 원점을 기준으로 방사되는 방향으로 이미지가 왜곡되는 현상을 뜻한다. 즉, 점(213)은 점(223)에 대비하여 원점 기준 방사되는 방향으로 이동되어 있다. 이를 보정하기 위하여, 점(213)은 보정 벡터(214)에 따라 이동될 수 있다. 방사 왜곡의 성질에 따라, 보정 벡터(214)의 방향은, 점(213)과 원점을 이은 직선에 평행할 수 있다. 또한, 보정 벡터(214)의 길이는, 점(213)이 원점으로부터 떨어진 거리에 비례할 수 있다. 방사 왜곡은 원점을 기준으로 한 왜곡이므로, 원점은 왜곡 보정 후에도 이동하지 않을 수 있다. 또한, 가로축(211) 또는 세로축(212) 상에 위치한 점은 각각 가로축(211) 또는 세로축(212)에 평행한 방향으로 이동할 수 있고, 왜곡 보정 후에도 여전히 각각 가로축(221) 또는 세로축(222) 상에 위치할 수 있다. 이러한 왜곡에 대한 보정을 위하여, 본 개시에 따른 방법의 실시 이전에 왜곡 보정 함수를 미리 설정하고, 본 개시에 따른 방법의 실시 중에는 기 설정된 왜곡 보정 함수를 사용할 수 있다. 이는 본 개시에 따른 방법의 실시 도중 왜곡 보정 함수를 일일이 다시 설정하는 방법에 비해 처리 속도가 빨라지는 이점이 있다. 왜곡 보정 함수의 설정은 업계에 알려진 방식을 사용할 수 있다. 예를 들어, 왜곡 보정 함수는 격자의 크기를 이미 알고 있는 체커보드(checkerboard)를 사용하여 생성될 수 있다.An image of a camera view may include a certain level of distortion according to the configuration of an optical system. Accordingly, in one embodiment, the
도 3 은 카메라(300) 및 카메라 이미지(310)의 화각(angle of view, field of view, FOV)의 관계를 나타낸다. 카메라(300)에서 촬영한 이미지(310)는 직사각형 형태로 표시될 수 있으며, 일정한 수의 픽셀을 가질 수 있다. 이 때, 카메라(300)의 가로 화각은 Wdeg, 세로 화각은 Hdeg로 나타낼 수 있다. 이미지(310)의 픽셀 단위의 너비는 Wp, 높이는 Hp로 나타낼 수 있다. 카메라(300)의 가로 및 세로 화각은 카메라(300)가 출력할 수 있는 최대 크기의 이미지(310)의 너비 및 높이에 대응될 수 있다. 즉, 카메라(300)는 Wdeg 및 Hdeg 범위의 이미지(310)를 촬영하고, 촬영된 이미지(310)는 Wp × Hp 크기의 직사각형 이미지로 표현될 수 있다.FIG. 3 shows a relationship between an angle of view (field of view) of a
일 실시예에서, 프로세서(110)는 보정된 이미지 좌표, 카메라의 화각 및 자세를 기초로 월드 좌표계에서 카메라로부터 관심 영역의 제1 방향을 확인할 수 있다. 도 4 는 카메라(300), 이미지(310), 관심 영역(314) 및 관심 영역의 실제 위치(324)와의 관계를 나타낸다. 핀홀 카메라(pinhole camera) 모델에서, 물체에 반사된 빛은 카메라 렌즈를 통해 이미지 센서에 상으로 맺히게 된다. 따라서, 물체의 위치와 카메라 렌즈 중심 및 이미지 센서에 맺힌 상의 위치는 서로 이어져 직선이 될 수 있다. 이에 따라, 도 4 와 같이, 카메라(300), 실제 위치(324) 및 실제 위치의 상에 해당하는 관심 영역(314)은 모두 직선 상에 존재할 수 있다. 따라서 카메라(300)로부터 실제 위치(324)를 향하는 방향은 카메라(300)로부터 관심 영역(314)을 향하는 관심 방향(302)과 일치할 수 있다. 방향(302)은, 이미지 중심 방향(301)을 가로 방향으로 xdeg 만큼, 세로 방향으로 ydeg 만큼 회전한 방향으로 나타내어질 수 있다. 한편, xdeg는 이미지(310)의 중심(311)으로부터 관심 영역(314)이 가로 축(312) 방향으로 떨어진 픽셀 단위 거리인 xp 에 대응할 수 있고, ydeg는 이미지(310)의 중심(311)으로부터 관심 영역(314)이 세로 축(313) 방향으로 떨어진 픽셀 단위 거리인 yp 에 대응할 수 있다. 다른 말로, 픽셀 단위 거리 xp 및 yp 는 이미지 중심 방향에서부터의 회전각 xdeg 및 ydeg에 비례할 수 있다. 따라서, 관심 방향(302)의 회전각 xdeg = (xp/Wp)×Wdeg , ydeg = (yp/Hp)×Hdeg 으로 결정될 수 있다.In an embodiment, the
도 5 는 본 개시에 따른 방법의 카메라 뷰를 제공하는 카메라(510)를 포함하는 UAV(500)를 나타낸다. 항공 촬영을 위하여 UAV(500)는 카메라(510)를 포함할 수 있다. UAV(500)의 헤딩(heading) 방향 또는 이동 방향과 독립적으로 카메라(510)를 지향하기 위하여, UAV(500)는 카메라 회전 구조(520)를 포함할 수 있다. 예를 들어, 카메라 회전 구조(520)는 짐벌(gimbal)을 포함하여, 카메라(510)를 좌우 방향으로 회전시키는 패닝(panning) 동작 및 상하 방향으로 회전시키는 틸팅(tilting) 동작을 수행할 수 있다. 이 때 팬(pan) 각도와 틸트(tilt) 각도는 사용자가 조작하거나, 별도의 전자 장치에 의해 조작될 수 있고, 타코미터(tachometer) 등의 각도 측정 센서로 측정될 수 있다. 5 shows a
UAV(500)의 월드 좌표계 상 위치, 속도 및 자세 정보를 획득하기 위하여, UAV(500)는 관성 항법 장치(Inertial Measurement Unit, IMU), 지자기센서(magnetometer) 등의 센서를 포함할 수 있다. 관심 방향(302)을 월드 좌표계에서 카메라로부터 관심 영역의 제1 방향으로 나타내기 위해서, 프로세서(110)는 우선, 센서에서 측정된 월드 좌표계에서의 UAV(500)의 헤딩 방향을 획득할 수 있다. 헤딩 방향은 UAV(500)와의 유/무선 통신을 통해 전자 장치(100)의 메모리(120)등으로 저장될 수 있다. 다음으로, 프로세서(110)는 UAV(500)의 헤딩 방향을 기준으로 한, 짐벌 등 카메라 장착 구조의 상대적 장착 각도를 확인할 수 있다. 상대적 장착 각도는 UAV(500)의 비행 전 미리 측정되어, 메모리(120)에 저장될 수 있다. 프로세서(110)는 이를 이용하여 헤딩 방향을 상대적 장착 각도만큼 회전시킨 짐벌 장착 방향을 계산할 수 있다. 팬 및 틸트 각도는 짐벌 장착 방향을 기준으로 측정된 것일 수 있으며, 프로세서(110)는 짐벌 장착 방향을 팬 및 틸트 각도만큼 회전시킨 카메라 지향 방향을 계산할 수 있다. 카메라 지향 방향은 이미지 중심 방향과 유사하거나 일치할 수 있다. 따라서, 프로세서(110)는 계산된 카메라 지향 방향을 이미지 중심 방향으로 할 수 있다. 프로세서(110)는 이미지 중심 방향을 회전각 xdeg 및 ydeg 만큼 회전시킨, 도 6 에서 나타나는, 월드 좌표계(605)에서의 제1 방향(602)을 계산할 수 있다.In order to obtain position, speed, and attitude information on the world coordinate system of the
도 6 은 본 개시에 따른 방법에서 카메라 뷰, 항공 뷰(620) 및 월드 좌표계(605)의 관계를 나타낸다. 제1 방향(602)은 UAV(600)에 장착된 카메라로부터, 카메라 뷰의 이미지(610)에 나타난 관심 영역(614)을 가리키는 방향을 월드 좌표계(605)에서 표현한 것이다. 제1 방향(602)은 단위 벡터로 표현될 수 있다. 도 4 에서 나타낸 것과 같이, 제1 방향(602)을 연장한 직선 상의 어느 한 점에 관심 영역으로 선택된 대상의 실제 위치(624)가 존재할 수 있으므로, 일 실시예에서, 프로세서(110)는 제1 방향(602)을 기초로 항공뷰(620)에서 관심 영역(614)에 대응하는 제1 좌표를 확인하고, 항공뷰에서 제1 좌표에 관한 정보를 표시할 수 있다. 제1 좌표는 대상의 실제 위치(624)를 항공뷰(620)의 좌표축(625)을 기준으로 나타내어진 값일 수 있다. 예를 들어, 제1 좌표는 지도 상의 위도 또는 경도 값일 수 있다. 또 다른 예를 들어, 제1 좌표는 항공뷰(620)의 좌표축(625)의 원점으로부터 미터 단위로 측정된 거리로 표현되는 2차원 좌표일 수 있다. 항공뷰(620)의 좌표축(625)의 원점은 UAV(600)의 초기 위치일 수 있다. 6 shows the relationship between a camera view, an
일 실시예에서, 프로세서(110)는 카메라로부터 관심 영역(614)에 대응하는 대상까지의 거리(D)를 확인하고, 거리 및 제1 방향(602)을 기초로 제1 좌표를 결정할 수 있다. 예를 들어, 프로세서(110)는 UAV(600)에 탑재되는 거리 측정 센서로부터 관심 영역(614)에 대응하는 대상의 실제 위치(624)까지의 거리(D)를 획득할 수 있다. 이 때, 프로세서(110)는, 제1 방향(602)을 나타내는 단위 방향 벡터에 D 를 곱하여 월드 좌표계(605) 상에서 표현된, UAV(600)로부터 실제 위치(624)까지의 상대 위치 벡터를 계산하고, 계산된 벡터를 항공뷰(620)에 투사하여 UAV(500)의 항공뷰(620)상의 위치(621)로부터 실제 위치(624)까지의 상대 위치 벡터(622)를 계산할 수 있다. 프로세서(110)는 UAV(600)의 항공뷰(620)상의 위치(621) 및 상대 위치 벡터(622)로부터, 항공뷰(620)의 좌표축(625)의 원점을 기준으로 한 실제 위치(624)의 제1 좌표를 계산할 수 있다.In an embodiment, the
일 실시예에서, 프로세서(110)는 월드 좌표계(605)에서 카메라로부터 제1 방향(602)을 따라 연장된 직선과 지면(630)이 교차하는 경우, 교차점(624)의 좌표를 기초로 제1 좌표를 결정할 수 있다. 구체적으로, UAV(600)의 주변 지면(630)을 평면으로 가정하여, 프로세서(110)는 UAV(600)의 지면 고도(A)를 기초로, 제1 방향(602)에 대한 삼각함수를 이용하여 UAV(500)의 항공뷰(620)상의 위치(621)로부터 교차점(624)까지의 상대 위치 벡터(622)를 계산하고, UAV(600)의 항공뷰(620)상의 위치(621) 및 상대 위치 벡터(622)로부터, 항공뷰(620)의 좌표축(625)의 원점을 기준으로 한 실제 위치(624)의 제1 좌표를 계산할 수 있다. 이는 UAV(600)로부터 관심 영역(614)에 대응하는 실제 대상까지의 거리(D)를 별도로 측정할 필요가 없어지는 이점이 있다. 다른 실시예에서, 프로세서(110)의 메모리(120)에 UAV(600)의 주변 지형에 대한 정보가 저장되어 있는 경우, 프로세서(110)는 지형 정보를 이용하여 교차점(624)의 좌표를 결정하고, 교차점(624)의 좌표를 기초로 제1 좌표를 결정할 수 있다. 이는 UAV(600)의 주변 지면(630)을 평면으로 가정한 앞서의 경우보다 더 정확한 제1 좌표를 결정할 수 있다는 이점이 있다.In one embodiment, the
도 7 은 본 개시에 따른 방법에서 카메라 뷰, 항공 뷰 및 월드 좌표계의 관계를 나타낸다. 일 실시예에서, 프로세서(110)는 왜곡 보정 함수를 이용하여 이미지를 보정하고, 보정된 이미지의 경계 좌표, 카메라의 화각 및 자세를 기초로 월드 좌표계에서 카메라로부터 경계 좌표에 대응하는 제3 방향을 확인하고, 카메라로부터 제3 방향을 따라 연장된 직선과 지면이 교차하는 좌표를 기초로 항공뷰에서 경계 좌표에 대응하는 제3 좌표를 확인하고, 항공뷰에서 제3 좌표에 관한 정보를 표시할 수 있다. 7 shows the relationship between a camera view, an aerial view and a world coordinate system in a method according to the present disclosure. In one embodiment, the
도 7 을 참조하여 설명하면, 프로세서(110)는 우선, 왜곡 보정 함수를 이용하여 이미지를 보정하고, 보정된 이미지에서 제1 경계 좌표(716)를 확인할 수 있다. 왜곡 보정 방법은 상술한 바와 같다. 제1 경계 좌표(716), 제2 경계 좌표(717), 제3 경계 좌표(718) 및 제4 경계 좌표(719)는 각각 직사각형 형태의 이미지(710)의 네 꼭지점 픽셀의 좌표를 의미한다. 하지만 "경계 좌표"는 꼭지점 좌표에만 한정되지 않으며, 이미지의 모서리에 해당하는 어느 한 픽셀의 좌표일 수 있다. 즉, "경계 좌표"는 이미지의 너비 방향 또는 높이 방향으로 이웃하는 픽셀이 하나라도 존재하지 않는 픽셀의 좌표를 뜻한다.Referring to FIG. 7 , the
다음으로, 프로세서(110)는 보정된 이미지의 제1 경계 좌표(716), 카메라의 화각 및 자세를 기초로 월드 좌표계(705)에서 카메라로부터 제1 경계 좌표(716)에 대응하는 제3 방향을 확인할 수 있다. 도 7 과 같이, 카메라, 제1 경계 좌표(716) 및 제1 경계 좌표(716)에 대응하는 제1 실제 위치(726)는 모두 하나의 직선 상에 존재할 수 있다. 제3 방향은 월드 좌표계(705)에서 이 직선이 향하는 방향을 의미하고, 제3 방향은 도 6 의 제1 방향(702)을 구하는 방법과 동일한 방법으로 계산될 수 있다.Next, the
다음으로, 프로세서(110)는 카메라로부터 제3 방향을 따라 연장된 직선과 지면(730)이 교차하는 좌표를 기초로 항공뷰(720)에서 제1 경계 좌표(716)에 대응하는 제3 좌표를 확인하고, 항공뷰(720)에서 제3 좌표에 관한 정보를 표시할 수 있다.Next, the
이는 상술한 제1 좌표를 계산하는 방법과 유사하게, UAV(700)의 주변 지면(730)을 평면으로 가정하여, 프로세서(110)는 UAV(700)의 지면 고도(A)를 기초로, 제3 방향에 대한 삼각함수를 이용하여 항공뷰(720)의 좌표축(725)의 원점을 기준으로 한 제1 실제 위치(726)의 제3 좌표를 계산할 수 있다. 프로세서(110)는 상술한 방법과 동일한 방법으로, 제2 경계 좌표(717), 제3 경계 좌표(718) 및 제4 경계 좌표(719)에 각각 대응하는 제2 실제 위치(727)와 좌표, 제3 실제 위치(728)의 좌표 및 제4 실제 위치(729)의 좌표를 계산할 수 있다. 프로세서(110)는 그 다음, 제1 실제 위치(726)의 좌표, 제2 실제 위치(727)의 좌표, 제3 실제 위치(728)의 좌표 및 제4 실제 위치(729)의 좌표를 꼭짓점으로 하는 사각형을 항공뷰에 표시할 수 있다. 이는 항공뷰에서 카메라의 시야를 확인할 수 있는 이점이 있다.Similar to the above-described method of calculating the first coordinate, assuming that the
도 8 은 본 개시에 따른 방법의 일 실시예를 나타낸다. 일 실시예에 따라, 프로세서(110)는 UAV의 항공뷰 상 위치(821) 및 헤딩 방향(823)을 항공뷰에 표시할 수 있다. 또한, 프로세서(110)는 카메라 뷰(810)의 관심영역(814)에 대응하는 제1 좌표에 관한 실제 위치(824)를 항공뷰(820)에 표시할 수 있다. 또한, 프로세서(110)는 제1 경계 좌표(816), 제2 경계 좌표(817), 제3 경계 좌표(818) 및 제4 경계 좌표(819)에 각각 대응하는 제1 실제 위치(826), 제2 실제 위치(827), 제3 실제 위치(828) 및 제4 실제 위치(829)를 항공뷰(820)에 함께 표시할 수 있다. 이는 카메라가 지면을 지향하는 경우, 사용자가 카메라의 시야와 카메라 뷰에서의 관심 영역(814)의 실제 위치(824)를 쉽게 인식할 수 있는 이점이 있다.8 shows one embodiment of a method according to the present disclosure. According to an embodiment, the
도 9 는 본 개시에 따른 방법의 일 실시예를 나타낸다. UAV의 카메라가 지면과 평행하거나 지면이 아닌 상공 방향을 지향하는 경우, 제1 방향(여기서 제1 방향은 도 6 의 제1 방향(602)에 대응된다. 즉, 제1 방향은 월드 좌표계에서 카메라 뷰(910)의 관심 영역(914)의 방향을 나타낸다.)을 따라 연장된 직선이 지면과 교차하지 않을 수 있다. 이러한 경우, 항공뷰(920)에 실제 위치를 표시하기 어려울 수 있으므로, 일 실시예에서, 프로세서(110)는 제1 방향을 기초로, 항공뷰에서 제1 방향에 대응하는 제2 방향(923)을 확인하고, 항공뷰(920)에서 제2 방향(923)에 관한 정보를 표시할 수 있다. 예를 들어, 제2 방향(923)은 항공뷰(920) 상의 UAV의 위치(921)로부터 제2 방향(923)으로 뻗어나가는 직선 형태일 수 있다. 제2 방향(923)의 표현은 위에 한정되지 않으며, 화살표 등 방향을 표현할 수 있는 알려진 인터페이스 형식이 될 수 있다.9 shows one embodiment of a method according to the present disclosure. When the camera of the UAV is parallel to the ground or directed in an upward direction other than the ground, the first direction (here, the first direction corresponds to the
도 9 의 상황에서, 관심 영역(914)의 제2 방향(923)만 항공뷰(920)에 표시한다면, 사용자가 카메라의 화각을 고려해서 대상의 항공뷰(920) 상 실제 위치를 추론해야 하므로, 대상의 항공뷰(920) 상 위치를 식별하는데 어려움이 있을 수 있다. 따라서 일 실시예에서, 프로세서(110)는 카메라의 자세 및 화각을 기초로 항공뷰(920)에서 카메라의 수평 시야(922)를 삼각형으로 표시할 수 있다. 이는 사용자가 카메라의 화각에 상대적인 관심 영역(914)의 실제 위치 또는 제2 방향(923)을 쉽게 인지할 수 있는 이점을 가진다. 이 경우, 삼각형의 일 꼭지점은 항공뷰(920) 상의 UAV의 위치(921)와 동일하거나 인접할 수 있으며, 상기 꼭지점을 중심으로 하는 내각은 카메라의 수평 화각(Wdeg)과 같거나 유사할 수 있다. 또한, 삼각형은 반투명한 색으로 표시되어, 삼각형 내의 항공뷰(920)의 정보를 가리지 않도록 표현될 수 있다. 카메라의 수평 시야(922)의 표시는 도 9 와 같이 삼각형 형태에만 한정되지 않으며, 카메라의 수평 화각(Wdeg)을 표현할 수 있는 알려진 형태의 인터페이스를 포함할 수 있다. In the situation of FIG. 9 , if only the
도 10 은 본 개시에 따른 방법의 일 실시예를 나타낸다. 상술한 바에 따라 도 2 내지 도 9 를 참고하여 설명된 방법은, 카메라 뷰의 관심 영역에 대응하는 위치를 항공뷰에 표시하는 방법과 관련된다. 상술한 방법에 포함되는 단계를 역순으로 수행한다면, 도 10 의 항공뷰(1020)의 관심 영역(1024)에 대응하는 위치에 관련된 정보를 카메라 뷰(1014)에 표시할 수도 있음을 알 수 있다. 따라서 일 실시예에서, 프로세서(110)는 항공뷰(1020)에서 관심 영역(1024)의 제4 좌표를 확인하고, 제4 좌표를 기초로 월드 좌표계에서 카메라로부터 관심 영역의 제4 방향을 확인하고, 제4 방향, 카메라의 화각 및 자세를 기초로 카메라 뷰(1014) 에서 관심 영역의 이미지 좌표를 확인하고, 기 생성된 왜곡 보정 함수를 이용하여 이미지 좌표를 보정하고, 카메라 뷰에서 보정된 이미지 좌표에 관한 정보를 표시할 수 있다. 이는 사용자가 항공뷰의 관심 영역에 대응하는 실제 위치를 카메라 뷰에서 확인할 수 있게 되어, 사용자가 주변 환경을 더 잘 인지할 수 있는 이점이 있다. 왜곡 보정 함수는 카메라에 포함되는 광학계의 방사 왜곡을 보정하는 명령을 포함할 수 있다. 왜곡 보정 방법의 자세한 내용은 도 2 에서 상술한 바와 같다.10 shows one embodiment of a method according to the present disclosure. As described above, the method described with reference to FIGS. 2 to 9 relates to a method of displaying a location corresponding to a region of interest in a camera view on an aerial view. If the steps included in the above method are performed in reverse order, it can be seen that information related to a position corresponding to the
일 실시예에서, 관심 영역(1024)은 사용자가 항공뷰(1020)의 일 영역을 선택함으로써 검출될 수 있다. 이 때, 전자 장치(100)는 별도의 입력 디바이스를 포함하여, 사용자가 입력 디바이스를 이용하여 항공뷰(1020)의 일 영역을 선택하도록 할 수 있다. 예를 들어, 사용자는 마우스로 항공뷰(1020)의 일 영역을 선택하거나, 항공뷰(1020)를 나타내는 스크린을 터치하는 방식 등 당업자에게 알려진 방식으로 일 영역을 선택할 수 있다. 다른 예를 들어, 프로세서(110)는 사용자가 항공뷰(1020)의 이미지에서 응시하는 대상을 검출하고, 검출된 대상을 기초로 관심 영역(1024)의 제4 좌표를 결정할 수 있다. 이 때 사용자가 카메라 뷰의 이미지에서 응시하는 대상은 아이트래커(eye tracker) 등의 입력 디바이스를 통해 검출될 수 있다. 이러한 검출 방식은 사용자가 본인의 손을 사용하여 별도의 조작을 할 필요가 없다는 점에서, 사용자의 손이 자유로워지는 이점이 있다.In one embodiment, region of
도 10 에 따라, 사용자는 항공뷰(1020)에 표시된 항공뷰(1020) 상의 UAV의 위치(1021) 및 카메라의 수평 시야(1022)를 참고하여, 관심 영역(1024)을 선택할 수 있다. 이 때, 카메라가 지면 뿐만 아니라 상공 영역도 촬영하고 있다면, 항공뷰(1020)의 2차원 평면 상에서 선택된 관심 영역(1024)의 실제 위치는 카메라의 높이 방향에서 결정되기 어려울 수 있다. 따라서 이 경우 일 실시예에서, 프로세서(110)는 이미지 좌표를 카메라 뷰(1010)의 일부 영역(1014)으로 표시할 수 있다. 영역(1014)은 카메라 뷰(1010) 이미지의 너비 픽셀 수보다 같거나 적은 너비를 가지는 띠 형태를 가질 수 있다. 프로세서(110)는 띠를 반투명하게 표시하여 사용자가 띠 안쪽의 이미지를 식별할 수 있도록 할 수 있다. 이와 같은 표시는, 사용자가 카메라 뷰(1010)의 이미지에 표시되는 주변 환경의 형태를 이용하여 카메라 뷰(1010) 내에서 항공뷰(1020)의 관심 영역(1024)에 대응하는 실제 위치를 추론할 수 있도록 돕는 이점이 있다.According to FIG. 10 , the user may select a region of
도 10 에는 항공뷰(1020)에 카메라의 수평 시야(1022)가 나타나 있지만, 도 8 에서와 같이, 항공뷰(1020)에는 카메라의 시야가 사각형 형태로 표시될 수도 있다. 이러한 경우, 항공뷰(1020)의 관심 영역(1024) 에 대응하는 제4 좌표는 마치 도 8 의 카메라 뷰(810)에 표시된 관심 영역(1024)과 같이 항공뷰(1020) 상의 하나의 지점으로 표시될 수 있다.Although the horizontal field of
도 11 은 본 개시에 따른 방법의 일 실시예를 나타낸다. 도 11 의 항공뷰(1120)에는 UAV(1121) 및 카메라의 수평 시야(1122)가 표시되어 있다. 사용자의 관심 영역(1124)은 도 10 에서와 달리 수평 시야(1122)를 벗어난 위치에 표시되어 있다. 이러한 경우라도, 사용자가 카메라 뷰(1110)를 참고하여 UAV를 조작해서 관심 영역(1124)을 촬영할 수 있도록 돕기 위해, 일 실시예에서, 프로세서(110)는 관심 영역(1124)에 대응하는 보정된 이미지 좌표가 카메라 뷰(1110)의 이미지의 경계를 벗어나는 경우, 카메라 뷰(1110)에서 보정된 이미지 좌표의 방향(1114)을 표시할 수 있다. 보정된 이미지 좌표의 방향(1114)은 카메라 뷰(1110)의 경계를 향하는 화살표 형태로 표시될 수 있다. 보정된 이미지 좌표의 방향(1114)은 화살표에 한정되지 않고, 방향을 표시할 수 있는 알려진 인터페이스가 될 수 있다.11 shows one embodiment of a method according to the present disclosure. In the
도 12 는 일 실시예에 따른 전자 장치(100)의 동작 방법을 나타낸다. 도 12 의 동작 방법의 각 단계는 도 1 의 전자 장치(100)에 의해 수행될 수 있으므로, 도 1 과 중복되는 내용에 대해서는 설명을 생략한다.12 illustrates an operating method of the
단계 S1210에서, 전자 장치(100)는 카메라 뷰(camera view)에서 관심 영역의 이미지 좌표를 확인할 수 있다. In step S1210, the
전자 장치(100)는 사용자가 카메라 뷰의 이미지에서 응시하는 대상을 검출하고, 검출된 대상을 기초로 관심 영역의 이미지 좌표를 결정할 수 있다.The
단계 S1220에서, 전자 장치(100)는 기 생성된 왜곡 보정 함수를 이용하여 이미지 좌표를 보정할 수 있다.In step S1220, the
왜곡 보정 함수는 카메라에 포함되는 광학계의 방사 왜곡(radial distortion)을 보정하는 명령을 포함할 수 있다.The distortion correction function may include a command for correcting radial distortion of an optical system included in the camera.
단계 S1230에서, 전자 장치(100)는 보정된 이미지 좌표, 카메라의 화각 및 자세를 기초로 월드 좌표계에서 카메라로부터 관심 영역의 제1 방향을 확인할 수 있다.In step S1230, the
단계 S1240에서, 전자 장치(100)는 제1 방향을 기초로 항공뷰(birdeye's view)에서 관심 영역에 대응하는 제1 좌표를 확인할 수 있다.In step S1240, the
전자 장치(100)는 카메라로부터 관심 영역에 대응하는 대상까지의 거리를 확인하고, 거리 및 제1 방향을 기초로 제1 좌표를 결정할 수 있다.The
전자 장치(100)는 월드 좌표계에서 카메라로부터 제1 방향을 따라 연장된 직선과 지면이 교차하는 경우, 교차점의 좌표를 기초로 제1 좌표를 결정할 수 있다.When a straight line extending along the first direction from the camera intersects the ground in the world coordinate system, the
단계 S1250에서, 전자 장치(100)는 항공뷰에서 제1 좌표에 관한 정보를 표시할 수 있다.In step S1250, the
전자 장치(100)는 제1 방향을 기초로, 항공뷰에서 제1 방향에 대응하는 제2 방향을 확인하고, 항공뷰에서 제2 방향에 관한 정보를 표시할 수 있다.Based on the first direction, the
전자 장치(100)는 자세 및 화각을 기초로 항공뷰에서 카메라의 수평 시야를 삼각형으로 표시할 수 있다.The
도 13 은 일 실시예에 따른 전자 장치(100)의 동작 방법을 나타낸다. 도 13 의 동작 방법의 각 단계는 도 1 의 전자 장치(100)에 의해 수행될 수 있으므로, 도 1 과 중복되는 내용에 대해서는 설명을 생략한다.13 illustrates an operating method of the
단계 S1310에서, 전자 장치(100)는 항공뷰(birdeye's view)에서 관심 영역의 제4 좌표를 확인할 수 있다.In step S1310, the
전자 장치(100)는 사용자가 항공뷰의 이미지에서 응시하는 대상을 검출하고, 검출된 대상을 기초로 제4 좌표를 결정할 수 있다.The
단계 S1320에서, 전자 장치(100)는 제4 좌표를 기초로 월드 좌표계에서 카메라로부터 관심 영역의 제4 방향을 확인할 수 있다.In step S1320, the
단계 S1330에서, 전자 장치(100)는 제4 방향, 카메라의 화각 및 자세를 기초로 카메라 뷰(camera view) 에서 관심 영역의 이미지 좌표를 확인할 수 있다.In step S1330, the
단계 S1340에서, 전자 장치(100)는 기 생성된 왜곡 보정 함수를 이용하여 이미지 좌표를 보정할 수 있다.In step S1340, the
왜곡 보정 함수는 카메라에 포함되는 광학계의 방사 왜곡(radial distortion)을 보정하는 명령을 포함할 수 있다.The distortion correction function may include a command for correcting radial distortion of an optical system included in the camera.
단계 S1350에서, 전자 장치(100)는 카메라 뷰에서 보정된 이미지 좌표에 관한 정보를 표시할 수 있다.In step S1350, the
전자 장치(100)는 이미지 좌표를 카메라 뷰의 일부 영역으로 표시할 수 있다.The
전자 장치(100)는 보정된 이미지 좌표가 이미지의 경계를 벗어나는 경우, 카메라 뷰에서 보정된 이미지 좌표의 방향을 표시할 수 있다.When the corrected image coordinates deviate from the image boundary, the
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어, 소프트웨어, 또는 이들의 조합들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 데이터 처리 또는 이들의 조합 등을 위하여 종래 기술을 채용할 수 있다. This embodiment can be presented as functional block structures and various processing steps. These functional blocks may be implemented with any number of hardware, software, or combinations thereof that perform specific functions. For example, an embodiment is an integrated circuit configuration such as memory, processing, logic, look-up table, etc., which can execute various functions by control of one or more microprocessors or other control devices. can employ them. Similar to components that can be implemented as software programming or software elements, the present embodiments include data structures, processes, routines, or various algorithms implemented as combinations of other programming constructs, such as C, C++, Java ( It can be implemented in a programming or scripting language such as Java), assembler, or the like. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, this embodiment may employ conventional techniques for electronic environment setting, signal processing, data processing, or a combination thereof.
Claims (17)
카메라 뷰(camera view)에서 상기 관심 영역의 이미지 좌표를 확인하는 단계;
기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하는 단계;
보정된 이미지 좌표, 카메라의 화각 및 자세를 기초로 월드 좌표계에서 상기 카메라로부터 상기 관심 영역의 제1 방향을 확인하는 단계;
상기 제1 방향을 기초로 항공뷰(birdeye's view)에서 상기 관심 영역에 대응하는 제1 좌표를 확인하는 단계; 및
상기 항공뷰에서 상기 제1 좌표에 관한 정보를 표시하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.In the method for visualizing a region of interest of an electronic device,
checking image coordinates of the region of interest in a camera view;
correcting the image coordinates using a pre-generated distortion correction function;
identifying a first direction of the region of interest from the camera in a world coordinate system based on corrected image coordinates, a view angle of the camera, and a posture;
checking first coordinates corresponding to the region of interest in a birdeye's view based on the first direction; and
and displaying information about the first coordinate in the aerial view.
상기 카메라로부터 상기 관심 영역에 대응하는 대상까지의 거리를 확인하는 단계를 더 포함하고,
상기 제1 좌표를 확인하는 단계는,
상기 거리 및 상기 제1 방향을 기초로 상기 제1 좌표를 결정하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 1,
Checking a distance from the camera to an object corresponding to the region of interest;
The step of checking the first coordinates,
and determining the first coordinate based on the distance and the first direction.
상기 제1 좌표를 확인하는 단계는,
상기 월드 좌표계에서 상기 카메라로부터 상기 제1 방향을 따라 연장된 직선과 지면이 교차하는 경우, 교차점의 좌표를 기초로 상기 제1 좌표를 결정하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 1,
The step of checking the first coordinates,
and determining the first coordinates based on coordinates of an intersection point when a straight line extending along the first direction from the camera intersects the ground in the world coordinate system.
상기 표시하는 단계는,
상기 제1 방향을 기초로, 상기 항공뷰에서 상기 제1 방향에 대응하는 제2 방향을 확인하고, 상기 항공뷰에서 상기 제2 방향에 관한 정보를 표시하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 1,
The display step is
Based on the first direction, identifying a second direction corresponding to the first direction in the aerial view, and displaying information about the second direction in the aerial view. visualization method.
왜곡 보정 함수를 이용하여 상기 이미지를 보정하는 단계;
보정된 이미지의 경계 좌표, 상기 카메라의 화각 및 자세를 기초로 월드 좌표계에서 카메라로부터 상기 경계 좌표에 대응하는 제3 방향을 확인하는 단계;
상기 카메라로부터 상기 제3 방향을 따라 연장된 직선과 지면이 교차하는 좌표를 기초로 항공뷰에서 상기 경계 좌표에 대응하는 제3 좌표를 확인하는 단계; 및
상기 항공뷰에서 상기 제3 좌표에 관한 정보를 표시하는 단계를 더 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 1,
correcting the image using a distortion correction function;
checking a third direction corresponding to the boundary coordinates from a camera in a world coordinate system based on the boundary coordinates of the corrected image, the angle of view and the attitude of the camera;
checking third coordinates corresponding to the boundary coordinates in an aerial view based on coordinates at which a straight line extending along the third direction from the camera intersects the ground; and
The method of visualizing a region of interest of an electronic device further comprising displaying information about the third coordinate in the aerial view.
상기 표시하는 단계는,
상기 자세 및 상기 화각을 기초로 상기 항공뷰에서 상기 카메라의 수평 시야를 삼각형으로 표시하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 1,
The display step is
and displaying a horizontal field of view of the camera as a triangle in the aerial view based on the posture and the angle of view.
상기 이미지 좌표를 확인하는 단계는,
사용자가 상기 카메라 뷰의 이미지에서 응시하는 대상을 검출하는 단계; 및
검출된 대상을 기초로 상기 관심 영역의 이미지 좌표를 결정하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 1,
The step of checking the image coordinates,
detecting a target that a user gazes at in the image of the camera view; and
A method for visualizing a region of interest in an electronic device, comprising determining image coordinates of the region of interest based on the detected object.
상기 왜곡 보정 함수는 상기 카메라에 포함되는 광학계의 방사 왜곡(radial distortion)을 보정하는 명령을 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 1,
The distortion correction function includes a command for correcting radial distortion of an optical system included in the camera.
적어도 하나의 프로그램이 저장된 메모리; 및
상기 적어도 하나의 프로그램을 실행함으로써,
카메라 뷰(camera view)에서 관심 영역의 이미지 좌표를 확인하고,
기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하고,
보정된 이미지 좌표, 카메라의 화각 및 자세를 기초로 월드 좌표계에서 상기 카메라로부터 상기 관심 영역의 제1 방향을 확인하고,
상기 제1 방향을 기초로 항공뷰(birdeye's view)에서 상기 관심 영역에 대응하는 제1 좌표를 확인하고,
상기 항공뷰에서 상기 제1 좌표에 관한 정보를 표시하는 프로세서를 포함하는, 전자 장치.As an electronic device,
a memory in which at least one program is stored; and
By executing the at least one program,
Check the image coordinates of the region of interest in the camera view,
Correcting the image coordinates using a pre-generated distortion correction function;
Checking a first direction of the region of interest from the camera in a world coordinate system based on the corrected image coordinates, the camera's angle of view and posture;
Checking first coordinates corresponding to the region of interest in a birdeye's view based on the first direction;
And a processor for displaying information about the first coordinate in the aerial view.
상기 관심 영역 시각화 방법은,
카메라 뷰(camera view)에서 관심 영역의 이미지 좌표를 확인하는 단계;
기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하는 단계;
보정된 이미지 좌표, 카메라의 화각 및 자세를 기초로 월드 좌표계에서 상기 카메라로부터 상기 관심 영역의 제1 방향을 확인하는 단계;
상기 제1 방향을 기초로 항공뷰(birdeye's view)에서 상기 관심 영역에 대응하는 제1 좌표를 확인하는 단계; 및
상기 항공뷰에서 상기 제1 좌표에 관한 정보를 표시하는 단계를 포함하는, 비일시적 기록 매체.A computer-readable non-transitory recording medium recording a program for executing a method of visualizing a region of interest on a computer,
The method for visualizing the region of interest,
checking image coordinates of a region of interest in a camera view;
correcting the image coordinates using a pre-generated distortion correction function;
identifying a first direction of the region of interest from the camera in a world coordinate system based on corrected image coordinates, a view angle of the camera, and a posture;
checking first coordinates corresponding to the region of interest in a birdeye's view based on the first direction; and
and displaying information about the first coordinate in the aerial view.
항공뷰(birdeye's view)에서 상기 관심 영역의 제4 좌표를 확인하는 단계;
상기 제4 좌표를 기초로 월드 좌표계에서 카메라로부터 상기 관심 영역의 제4 방향을 확인하는 단계;
상기 제4 방향, 상기 카메라의 화각 및 자세를 기초로 카메라 뷰(camera view) 에서 상기 관심 영역의 이미지 좌표를 확인하는 단계;
기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하는 단계; 및
상기 카메라 뷰에서 보정된 이미지 좌표에 관한 정보를 표시하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.In the method for visualizing a region of interest of an electronic device,
checking fourth coordinates of the region of interest in a birdeye's view;
checking a fourth direction of the ROI from a camera in a world coordinate system based on the fourth coordinate;
checking image coordinates of the region of interest in a camera view based on the fourth direction, the angle of view, and the posture of the camera;
correcting the image coordinates using a pre-generated distortion correction function; and
A method of visualizing a region of interest of an electronic device comprising the step of displaying information about image coordinates calibrated in the camera view.
상기 표시하는 단계는,
상기 이미지 좌표를 상기 카메라 뷰의 일부 영역으로 표시하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 11,
The display step is
and displaying the image coordinates as a partial region of the camera view.
상기 표시하는 단계는,
상기 보정된 이미지 좌표가 이미지의 경계를 벗어나는 경우, 상기 카메라 뷰에서 상기 보정된 이미지 좌표의 방향을 표시하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 11,
The display step is
and displaying a direction of the corrected image coordinates in the camera view when the corrected image coordinates are out of a boundary of the image.
상기 제4 좌표를 확인하는 단계는,
사용자가 상기 항공뷰의 이미지에서 응시하는 대상을 검출하는 단계; 및
검출된 대상을 기초로 상기 제4 좌표를 결정하는 단계를 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 11,
The step of checking the fourth coordinate,
detecting an object the user is gazing at in the image of the aerial view; and
and determining the fourth coordinate based on the detected object.
상기 왜곡 보정 함수는 상기 카메라에 포함되는 광학계의 방사 왜곡(radial distortion)을 보정하는 명령을 포함하는, 전자 장치의 관심 영역 시각화 방법.According to claim 11,
The distortion correction function includes a command for correcting radial distortion of an optical system included in the camera.
적어도 하나의 프로그램이 저장된 메모리; 및
상기 적어도 하나의 프로그램을 실행함으로써,
항공뷰(birdeye's view)에서 관심 영역의 제4 좌표를 확인하고,
상기 제4 좌표를 기초로 월드 좌표계에서 카메라로부터 상기 관심 영역의 제4 방향을 확인하고,
상기 제4 방향, 상기 카메라의 화각 및 자세를 기초로 카메라 뷰(camera view) 에서 상기 관심 영역의 이미지 좌표를 확인하고,
기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하고,
상기 카메라 뷰에서 보정된 이미지 좌표에 관한 정보를 표시하는 프로세서를 포함하는, 전자 장치.As an electronic device,
a memory in which at least one program is stored; and
By executing the at least one program,
Checking the fourth coordinates of the region of interest in a birdeye's view;
Checking a fourth direction of the region of interest from a camera in a world coordinate system based on the fourth coordinate;
Checking image coordinates of the region of interest in a camera view based on the fourth direction, an angle of view, and a posture of the camera;
Correcting the image coordinates using a pre-generated distortion correction function;
An electronic device comprising a processor displaying information about image coordinates calibrated in the camera view.
상기 관심 영역 시각화 방법은,
항공뷰(birdeye's view)에서 관심 영역의 제4 좌표를 확인하는 단계;
상기 제4 좌표를 기초로 월드 좌표계에서 카메라로부터 상기 관심 영역의 제4 방향을 확인하는 단계;
상기 제4 방향, 상기 카메라의 화각 및 자세를 기초로 카메라 뷰(camera view) 에서 상기 관심 영역의 이미지 좌표를 확인하는 단계;
기 생성된 왜곡 보정 함수를 이용하여 상기 이미지 좌표를 보정하는 단계; 및
상기 카메라 뷰에서 보정된 이미지 좌표에 관한 정보를 표시하는 단계를 포함하는, 비일시적 기록매체.
A computer-readable non-transitory recording medium recording a program for executing a method of visualizing a region of interest on a computer,
The method for visualizing the region of interest,
checking fourth coordinates of a region of interest in a birdeye's view;
checking a fourth direction of the ROI from a camera in a world coordinate system based on the fourth coordinate;
checking image coordinates of the region of interest in a camera view based on the fourth direction, the angle of view, and the posture of the camera;
correcting the image coordinates using a pre-generated distortion correction function; and
and displaying information about image coordinates corrected in the camera view.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210156923A KR102694286B1 (en) | 2021-11-15 | 2021-11-15 | Region of interest visualization method of electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210156923A KR102694286B1 (en) | 2021-11-15 | 2021-11-15 | Region of interest visualization method of electronic apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230070890A true KR20230070890A (en) | 2023-05-23 |
KR102694286B1 KR102694286B1 (en) | 2024-08-13 |
Family
ID=86544951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210156923A KR102694286B1 (en) | 2021-11-15 | 2021-11-15 | Region of interest visualization method of electronic apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102694286B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190050648A1 (en) * | 2017-08-09 | 2019-02-14 | Ydrive, Inc. | Object localization within a semantic domain |
-
2021
- 2021-11-15 KR KR1020210156923A patent/KR102694286B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190050648A1 (en) * | 2017-08-09 | 2019-02-14 | Ydrive, Inc. | Object localization within a semantic domain |
Non-Patent Citations (1)
Title |
---|
Haotian Zhang, "Eye in the Sky: Drone-Based Object Tracking and 3D Localization", Proceedings of the 27th ACM International Conference on Multimedia (2019.10.15.)* * |
Also Published As
Publication number | Publication date |
---|---|
KR102694286B1 (en) | 2024-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10551834B2 (en) | Method and electronic device for controlling unmanned aerial vehicle | |
US20220058888A1 (en) | Image processing method and apparatus, and computer storage medium | |
WO2017020150A1 (en) | Image processing method, device and camera | |
WO2020195875A1 (en) | Information processing device, information processing method, and program | |
CN112729327B (en) | Navigation method, navigation device, computer equipment and storage medium | |
US20200012756A1 (en) | Vision simulation system for simulating operations of a movable platform | |
US20140327666A1 (en) | Display control system, display control apparatus, storage medium having stored therein display control program, and display control method | |
CN104204848A (en) | Surveying apparatus having a range camera | |
US20210047037A1 (en) | Optically supported object navigation | |
CN108450032A (en) | Flight control method and device | |
KR20110088995A (en) | Method and system to visualize surveillance camera videos within 3d models, and program recording medium | |
CN108629842B (en) | Unmanned equipment motion information providing and motion control method and equipment | |
JP7006810B2 (en) | 3D measuring device, mobile robot, push wheel type moving device and 3D measurement processing method | |
WO2020019175A1 (en) | Image processing method and apparatus, and photographing device and unmanned aerial vehicle | |
TWI736214B (en) | Display control device, display control method, program and non-temporary computer readable information recording medium | |
WO2021212518A1 (en) | Flight direction method, apparatus and system, control terminal, and readable storage medium | |
KR102694286B1 (en) | Region of interest visualization method of electronic apparatus | |
WO2019168061A1 (en) | Information processing device, recording medium, head-mounted display, and information processing system | |
US11861060B2 (en) | Recording medium for selecting objects using head mounted display, information processing system, and information processing method | |
WO2021075307A1 (en) | Information processing device, information processing method, and information processing program | |
KR20160023362A (en) | System and Method for realtime 3D tactical intelligence display | |
WO2021212499A1 (en) | Target calibration method, apparatus, and system, and remote control terminal of movable platform | |
KR20180106178A (en) | Unmanned aerial vehicle, electronic device and control method thereof | |
WO2020107487A1 (en) | Image processing method and unmanned aerial vehicle | |
US20240013460A1 (en) | Information processing apparatus, information processing method, program, and information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |